볼륨 관리 계획에 있는 계획 정보와 함께 이 장의 절차를 사용하여 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어에 필요한 로컬 디스크 및 멀티 호스트 디스크를 설치 및 구성합니다. 자세한 내용은 Solstice DiskSuite 또는 Solaris 볼륨 관리자 설명서를 참조하십시오.
DiskSuite Tool(Solstice DiskSuite metatool) 및 Solaris Management Console(Solaris 볼륨 관리자)의 Enhanced Storage 모듈은 Sun Cluster 소프트웨어와 호환되지 않습니다. 명령줄 인터페이스 또는 Sun Cluster 유틸리티를 사용하여 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어를 구성하십시오.
이 장에서는 다음 정보와 절차를 설명합니다.
다음 표는 Sun Cluster 구성에 필요한 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어를 설치하고 구성하기 위해 수행할 작업 목록입니다. 다음과 같은 조건에서는 특정 절차를 생략할 수 있습니다.
SunPlex Installer를 사용하여 Solstice DiskSuite 소프트웨어(Solaris 8)를 설치했으면 Solstice DiskSuite 소프트웨어를 설치하는 방법부터 상태 데이터베이스 복제본을 만드는 방법까지의 절차가 이미 완료되었습니다. 계속 Solstice DiskSuite 소프트웨어를 구성하려면 루트 디스크 미러링 또는 클러스터에 디스크 세트 만들기로 이동하십시오.
Solaris 9 소프트웨어를 설치한 경우 Solaris 볼륨 관리자가 이미 설치되어 있습니다. 메타 장치나 볼륨 이름 및 디스크 세트 수를 설정하는 방법에서 구성을 시작할 수 있습니다.
Oracle Real Application Clusters에서 사용할 Solaris Volume Manager for Sun Cluster 다수 소유자 디스크 세트를 만들려는 경우에는 디스크 세트 작성 방법에서 메타 장치나 볼륨을 활성화하는 방법의 절차를 사용하여 다수 소유자 디스크 세트를 만들지 마십시오.
이 절에서는 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어 설치 및 구성에 대한 다음 정보와 절차를 설명합니다.
다음은 각 디스크 세트에 배치할 디스크 드라이브 수를 결정하는 프로세스를 설명하는 예입니다. 이 예에서는 세 개의 저장 장치가 사용됩니다. 기존 응용 프로그램은 NFS(각각 5GB인 파일 시스템 2개) 및 2개의 ORACLE 데이터베이스(5GB 및 10GB)를 통해 실행됩니다.
다음 표에서는 샘플 구성에 필요한 드라이브 수를 결정하는 계산 방법을 설명합니다. 세 개의 저장 장치가 있는 구성에서는 28개의 드라이브가 필요합니다. 디스크 드라이브는 세 개의 저장 장치 각각에 가능한 균등하게 분배되어야 합니다. 필요한 드라이브 수가 반올림되었기 때문에 5GB 파일 시스템에 1GB 디스크 공간이 추가되었습니다.
표 3–2 구성에 필요한 드라이브 수 결정
사용 |
데이터 |
필요한 디스크 저장소 |
필요한 드라이브 수 |
---|---|---|---|
nfs1 |
5GB |
3x2.1GB 디스크 * 2 (미러) |
6 |
nfs2 |
5GB |
3x2.1GB 디스크 * 2 (미러) |
6 |
SPARC: oracle1 |
5GB |
3x2.1GB 디스크 * 2 (미러) |
6 |
SPARC: oracle2 |
10GB |
5x2.1GB 디스크 * 2 (미러) |
10 |
다음 표는 두 개의 디스크 세트와 네 가지 데이터 서비스에 드라이브를 할당하는 예입니다.
표 3–3 디스크 세트 나누기
디스크 세트 |
데이터 서비스 |
드라이브 |
저장 장치 1 |
저장 장치 2 |
저장 장치 3 |
---|---|---|---|---|---|
dg-schost-1 |
nfs1, oracle1 |
12 |
4 |
4 |
4 |
dg-schost-2 |
nfs2, oracle2 |
16 |
5 |
6 |
5 |
처음에는 각 저장 장치마다 4개의 드라이브(총 12개 드라이브)가 dg-schost-1에 할당되고 5개 또는 6개의 드라이브(총 16개 드라이브)가 dg-schost-2에 할당됩니다.
핫 스패어 디스크는 두 디스크 세트에 할당되지 않습니다. 각 디스크 세트의 저장 장치마다 최소 하나의 핫 스페어 디스크를 남겨 두면 하나의 드라이브를 핫 스페어로 사용하여 완전한 양방향 미러링을 복원할 수 있습니다.
다음과 같은 경우에는 이 절차를 수행하지 마십시오.
SunPlex Installer를 사용하여 Solstice DiskSuite 소프트웨어를 설치한 경우
추가 디스크 세트를 만들 계획이면 메타 장치나 볼륨 이름 및 디스크 세트 수를 설정하는 방법으로 이동하십시오.
추가 디스크를 만들지 않을 계획이면 루트 디스크 미러링으로 이동하십시오.
Solaris 9 소프트웨어를 설치한 경우
Solaris 볼륨 관리자 소프트웨어는 Solaris 9 소프트웨어와 함께 자동으로 설치됩니다. 대신 메타 장치나 볼륨 이름 및 디스크 세트 수를 설정하는 방법으로 이동하십시오.
클러스터의 각 노드에서 다음 작업을 수행하십시오.
저장소 드라이브 매핑
다음과 같은 완성된 구성 계획 워크시트. 계획 방법은 볼륨 관리 계획을 참조하십시오.
클러스터 노드에서 수퍼유저가 되십시오.
CD-ROM에서 설치하는 경우에는 Solaris 8 소프트웨어 CD-ROM 두 번째 장을 노드의 CD-ROM 드라이브에 넣으십시오.
이 단계에서는 볼륨 관리 데몬 vold(1M)가 실행되고 있고 CD-ROM 장치를 관리하도록 구성되어 있다고 가정합니다.
다음 예에 표시된 순서로 Solstice DiskSuite 소프트웨어 패키지를 설치하십시오.
# cd /cdrom/sol_8_sparc_2/Solaris_8/EA/products/DiskSuite_4.2.1/sparc/Packages # pkgadd -d . SUNWmdr SUNWmdu [SUNWmdx] optional-pkgs |
설치할 Solstice DiskSuite 소프트웨어 패치가 있으면 Solstice DiskSuite 소프트웨어를 설치한 후에 재부트하지 마십시오.
모든 Solstice DiskSuite 설치에 SUNWmdr 및 SUNWmdu 패키지가 필요합니다. 64비트 Solstice DiskSuite 설치에는 SUNWmdx 패키지도 필요합니다.
옵션 소프트웨어 패키지에 대한 정보는 Solstice DiskSuite 설치 설명서를 참조하십시오.
CD-ROM에서 설치한 경우에는 CD-ROM을 빼십시오.
Solstice DiskSuite 패치가 있으면 설치하십시오.
패치 위치 및 설치 지침은 Sun Cluster 3.1 릴리스 정보의 “패치 및 필수 펌웨어 수준”을 참조하십시오.
클러스터의 한 노드에서 직접 Solstice DiskSuite에 대한 전역 장치 이름 공간을 채우십시오.
# scgdevs |
scgdevs 명령은 다음과 비슷한 메시지를 반환할 수 있습니다.
Could not open /dev/rdsk/c0t6d0s2 to verify device id, Device busy |
나열된 장치가 CD-ROM 장치이면 메시지를 무시해도 됩니다.
클러스터에서 사용할 것으로 예상되는 메타 장치 이름과 디스크 세트 수를 설정하십시오.
메타 장치나 볼륨 이름 및 디스크 세트 수를 설정하는 방법으로 이동하십시오.
SunPlex Installer를 사용하여 Solstice DiskSuite 소프트웨어를 설치했으면 이 절차를 수행하지 마십시오. 대신 루트 디스크 미러링로 이동하십시오.
이 절차에서는 구성에 필요한 Solstice DiskSuite 메타 장치나 Solaris 볼륨 관리자 볼륨 이름 또는 디스크 세트의 수를 결정하는 방법을 설명합니다. 또한 /kernel/drv/md.conf 파일을 수정하여 이러한 개수를 지정하는 방법도 설명합니다.
각 디스크 세트의 메타 장치나 볼륨 이름 개수 기본값은 128이지만 대부분의 구성에서 기본값보다 많은 개수가 필요합니다. 구성을 구현하기 전에 이 개수를 늘리십시오. 그러면 나중에 관리 시간을 줄일 수 있습니다.
또한 nmd 필드 및 md_nsets 필드의 값을 가능한 최소값으로 유지하십시오. nmd 및 md_nsets에 의해 결정되는 가능한 모든 장치를 위한 메모리 구조가 해당 장치를 만들지 않은 경우에도 존재합니다. 최적의 성능을 얻으려면 nmd 및 md_nsets의 값을 사용할 메타 장치나 볼륨 수보다 약간 높게 유지하십시오.
디스크 장치 그룹 구성 워크시트를 준비하십시오.
클러스터에서 필요할 것으로 예상되는 총 디스크 세트 수를 계산한 다음 개인 디스크 관리를 위한 디스크 세트 수 하나를 추가하십시오.
클러스터의 최대 디스크 세트 수는 32개입니다. 31개는 일반 용도로 사용하는 디스크 세트이고 하나는 개인 디스크 관리에 사용하는 디스크 세트입니다. 기본 디스크 세트 수는 4입니다. 단계 4의 md_nsets필드에 이 값을 입력합니다.
클러스터의 디스크 세트에서 필요할 것으로 예상되는 메타 장치나 볼륨 이름 중에서 가장 큰 값을 결정하십시오.
각 디스크 세트에 최대 8192개까지 메타 장치나 볼륨 이름을 사용할 수 있습니다. 나중에 단계 4에서 nmd 필드에 이 값을 입력합니다.
각 디스크 세트에 필요할 것으로 예상되는 메타 장치나 볼륨 이름의 수를 결정하십시오.
로컬 메타 장치나 볼륨을 사용하는 경우에는 각 로컬 메타 장치나 볼륨 이름이 전체 클러스터에서 고유해야 하고 클러스터에 있는 다른 장치 ID 이름과 동일한 이름을 사용하지 않아야 합니다.
장치 ID 이름에만 사용할 번호 범위와 로컬 메타 장치나 볼륨 이름에만 사용할 각 노드 범위를 선택하십시오. 예를 들어, 장치 ID 이름에 d1부터 d100까지의 범위를 사용할 수 있습니다. 노드 1의 로컬 메타 장치 또는 볼륨은 범위가 d100부터 d199까지인 이름을 사용할 수 있습니다. 노드 2의 로컬 메타 장치 또는 볼륨은 d200부터 d299까지를 사용할 수 있습니다.
디스크 세트에 필요할 것으로 예상되는 메타 장치나 볼륨 이름 중에서 가장 큰 값을 결정하십시오.
메타 장치나 볼륨 이름의 개수는 실제 개수를 기반으로 하지 않고 메타 장치나 볼륨 이름의 값을 기반으로 설정합니다. 예를 들어, 메타 장치나 볼륨의 이름 범위가 d950부터 d1000까지이면 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어에서는 값을 50개가 아닌 1000개의 이름으로 설정해야 합니다.
각 노드에서 수퍼유저가 되어 /kernel/drv/md.conf 파일을 편집하십시오.
각 노드에서 제공되는 디스크 세트 수와 관계없이 모든 클러스터 노드 또는 클러스터 쌍 토폴로지에 포함된 클러스터 쌍에 동일한 /kernel/drv/md.conf 파일이 있어야 합니다. 이 설명을 따르지 않으면 심각한 Solstice DiskSuite 또는 Solaris 볼륨 관리자 오류가 발생하여 데이터를 잃을 수 있습니다.
각 노드에서 재구성 재부트를 수행하십시오.
# touch /reconfigure # shutdown -g0 -y -i6 |
재구성 재부트를 수행하고 나면 /kernel/drv/md.conf 파일의 변경 사항이 적용됩니다.
로컬 상태 데이터베이스 복제본을 만드십시오.
상태 데이터베이스 복제본을 만드는 방법으로 이동하십시오.
SunPlex Installer를 사용하여 Solstice DiskSuite 소프트웨어를 설치했으면 이 절차를 수행하지 마십시오. 대신 루트 디스크 미러링로 이동하십시오.
클러스터의 각 노드에서 이 절차를 수행하십시오.
클러스터 노드에서 수퍼유저가 되십시오.
각 클러스터 노드에 대한 하나 이상의 로컬 장치에 상태 데이터베이스 복제본을 만드십시오.
사용할 슬라이스를 지정하는 데 장치 ID 이름(dN)이 아니라 물리적 이름 (cNtXdYsZ)을 사용합니다.
# metadb -af slice-1 slice-2 slice-3 |
Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어를 실행하기 위해 필요한 상태 데이터를 보호하려면 각 노드에 대한 복제본을 세 개 이상 만드십시오. 또한 두 개 이상의 장치에 복제본을 만들면 장치 중 하나에 장애가 발생할 경우에도 보호할 수 있습니다.
자세한 내용은 metadb(1M) 설명서 페이지와 Solstice DiskSuite 또는 Solaris 볼륨 관리자 설명서를 참조하십시오.
복제본을 확인하십시오.
# metadb |
metadb 명령을 실행하면 복제본 목록이 표시됩니다.
루트 디스크에 파일 시스템을 미러하려면 루트 디스크 미러링으로 이동하십시오.
그렇지 않은 경우에는 클러스터에 디스크 세트 만들기로 이동하여 Solstice DiskSuite 또는 Solaris 볼륨 관리자 디스크 세트를 만드십시오.
다음 예에서는 3개의 Solstice DiskSuite 상태 데이터베이스 복제본을 보여 줍니다. 각 복제본은 서로 다른 장치에 만들어집니다. Solaris 볼륨 관리자의 경우에는 복제본의 크기가 더 큽니다.
# metadb -af c0t0d0s7 c0t1d0s7 c1t0d0s7 # metadb flags first blk block count a u 16 1034 /dev/dsk/c0t0d0s7 a u 16 1034 /dev/dsk/c0t1d0s7 a u 16 1034 /dev/dsk/c1t0d0s7 |
루트 디스크를 미러링하면 시스템 디스크 하나에 장애가 발생할 경우에도 클러스터 노드가 종료되지 않습니다. 루트 디스크에 네 가지 유형의 파일 시스템을 만들 수 있습니다. 각 파일 시스템 유형이 서로 다른 방법으로 미러됩니다.
다음 절차를 사용하여 각 유형의 파일 시스템을 미러링하십시오.
이 미러링 절차의 단계 중 일부는 다음과 비슷한 오류 메시지를 표시할 수 있으며 시스템을 손상시키지 않으므로 무시할 수 있습니다.
metainit: dg-schost-1: d1s0: not a metadevice |
로컬 디스크 미러링의 경우 디스크 이름을 지정할 때 경로로 /dev/global을 사용하지 마십시오. 클러스터 파일 시스템이 아닌 시스템에 이 경로를 지정하면 시스템이 부트되지 않습니다.
이 절차를 사용하여 루트(/) 파일 시스템을 미러합니다.
노드에서 수퍼유저가 되십시오.
metainit(1M) 명령을 사용하여 루트 슬라이스로 단일 슬라이스(단방향) 연결을 만드십시오.
루트 디스크 슬라이스의 물리 디스크 이름(cNtXdYsZ)을 지정하십시오.
# metainit -f submirror1 1 1 root-disk-slice |
두 번째 연결을 만드십시오.
# metainit submirror2 1 1 submirror-disk-slice |
하위 미러가 하나 있는 단방향 미러를 만드십시오.
# metainit mirror -m submirror1 |
미러의 메타 장치 이름이나 볼륨 이름은 전체 클러스터에서 반드시 고유해야 합니다.
metaroot(1M) 명령을 실행하십시오.
이 명령을 실행하면 메타 장치나 볼륨의 루트(/) 파일 시스템으로 부트할 수 있도록 /etc/vfstab 및 /etc/system 파일이 편집됩니다.
# metaroot mirror |
lockfs(1M) 명령을 실행하십시오.
이 명령을 실행하면 로그에 기록된 모든 트랜잭션을 내보내서 마운트된 모든 UFS 파일 시스템의 마스터 파일에 기록합니다.
# lockfs -fa |
노드에서 자원 그룹 또는 장치 그룹을 이동하십시오.
# scswitch -S -h from-node |
모든 자원 그룹과 장치 그룹을 이동합니다.
자원 또는 장치 그룹을 이동할 노드의 이름을 지정합니다.
노드를 재부트하십시오.
이 명령을 실행하면 새로 미러된 루트(/) 파일 시스템을 다시 마운트합니다.
# shutdown -g0 -y -i6 |
metattach(1M) 명령을 사용하여 두 번째 하위 미러를 미러에 연결하십시오.
# metattach mirror submirror2 |
루트 디스크를 미러하기 위해 사용된 디스크가 두 개 이상의 노드와 물리적으로 연결된 경우(멀티 호스트)에는 localonly 등록 정보를 활성화하십시오.
다음 단계를 수행하여 루트 디스크를 미러하는 데 사용되는 디스크에 대해 원시 디스크 장치 그룹의 localonly 등록 정보를 활성화하십시오. 부트 장치가 여러 노드에 연결된 경우 부트 장치가 노드에 액세스하지 못하는 문제를 방지하기 위해 localonly 등록 정보를 활성화해야 합니다.
필요한 경우 scdidadm(1M) -L 명령을 사용하여 원시 디스크 장치 그룹의 전체 장치 ID 경로 이름을 표시하십시오.
다음 예에서 원시 디스크 장치 그룹 이름 dsk/d2는 전체 장치 ID 경로 이름이 출력되는 세 번째 열에 포함되어 있습니다.
# scdidadm -L … 1 phys-schost-3:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 |
원시 디스크 장치 그룹의 노드 목록을 확인하십시오.
다음과 같이 출력됩니다.
# scconf -pvv | grep dsk/d2 Device group name: dsk/d2 … (dsk/d2) Device group node list: phys-schost-1, phys-schost-3 … |
노드 목록에 두 개 이상의 이름이 포함된 경우에는 노드 목록에서 루트 디스크를 미러하는 노드를 제외한 모든 노드를 제거하십시오.
루트 디스크를 미러하는 노드만 원시 디스크 장치 그룹의 노드 목록에 남아 있어야 합니다.
# scconf -r -D name=dsk/dN,nodelist=node |
원시 디스크 장치 그룹의 이름을 클러스터에서 고유하게 지정합니다.
노드 목록에서 제거할 노드 이름을 지정합니다.
scconf(1M) 명령을 사용하여 localonly 등록 정보를 활성화하십시오.
localonly 등록 정보가 활성화된 경우 원시 디스크 장치 그룹은 해당 노드 목록의 노드에서만 사용합니다. 따라서 부트 장치가 여러 노드에 연결된 경우에 노드가 부트 장치에 액세스하지 못하는 문제가 발생하지 않습니다.
# scconf -c -D name=rawdisk-groupname,localonly=true |
원시 디스크 장치 그룹의 이름을 지정합니다.
localonly 등록 정보에 대한 자세한 내용은 scconf_dg_rawdisk(1M) 설명서 페이지를 참조하십시오.
나중에 사용할 수 있도록 대체 부트 경로를 기록하십시오.
기본 부트 장치에 장애가 발생하면 이 대체 부트 장치에서 부트할 수 있습니다. 대체 부트 장치에 대한 자세한 내용은 Solstice DiskSuite 4.2.1 User's Guide의 “Troubleshooting the System” 또는 Solaris Volume Manager Administration Guide의 “Mirroring root (/) Special Considerations”를 참조하십시오.
# ls -l /dev/rdsk/root-disk-slice |
클러스터의 다른 노드에서 단계 1부터 단계 11까지 반복하십시오.
미러에 대한 각 메타 장치 이름이나 볼륨 이름이 전체 클러스터에서 고유한지 확인하십시오.
(옵션) 전역 이름 공간인 /global/.devices/node@nodeid를 미러하려면 전역 이름 공간을 미러하는 방법으로 이동하십시오.
(옵션) 마운트 해제할 수 없는 파일 시스템을 미러하려면 마운트 해제할 수 없는 루트(/) 이외의 파일 시스템을 미러하는 방법으로 이동하십시오.
(옵션) 사용자 정의 파일 시스템을 미러하려면 마운트 해제할 수 있는 파일 시스템을 미러하는 방법으로 이동하십시오.
디스크 세트를 만들려면 클러스터에 디스크 세트 만들기로 이동하십시오.
다음 예는 노드 phys-schost-1에 d0 미러를 작성하는 것을 보여주며, c0t0d0s0 분할 영역의 d10 하위 미러, c2t2d0s0 분할 영역의 d20 하위 미러로 구성됩니다. c2t2d0 장치는 멀티 호스트 디스크이므로 localonly 등록 정보가 활성화됩니다.
(Create the mirror) # metainit -f d10 1 1 c0t0d0s0 d11: Concat/Stripe is setup # metainit d20 1 1 c2t2d0s0 d12: Concat/Stripe is setup # metainit d0 -m d10 d10: Mirror is setup # metaroot d0 # lockfs -fa (Move resource groups and device groups from phys-schost-1) # scswitch -S -h phys-schost-1 (Reboot the node) # shutdown -g0 -y -i6 (Attach the second submirror) # metattach d0 d20 d0: Submirror d20 is attached (Display the device-group node list) # scconf -pvv | grep dsk/d2 Device group name: dsk/d2 … (dsk/d2) Device group node list: phys-schost-1, phys-schost-3 … (Remove phys-schost-3 from the node list) # scconf -r -D name=dsk/d2,nodelist=phys-schost-3 (Enable the localonly property) # scconf -c -D name=dsk/d2,localonly=true (Record the alternate boot path) # ls -l /dev/rdsk/c2t2d0s0 lrwxrwxrwx 1 root root 57 Apr 25 20:11 /dev/rdsk/c2t2d0s0 –> ../../devices/node@1/pci@1f,0/pci@1/scsi@3,1/disk@2,0:a,raw |
전역 이름 공간 /global/.devices/node@/nodeid를 미러하려면 다음 절차를 사용하십시오.
클러스터의 노드에서 수퍼유저가 되십시오.
전역 이름 공간 슬라이스로 단일 슬라이스(단방향) 연결을 만드십시오.
디스크 슬라이스의 물리적 디스크 이름(cNtXdYsZ)을 사용하십시오.
# metainit -f submirror1 1 1 diskslice |
두 번째 연결을 만드십시오.
# metainit submirror2 1 1 submirror-diskslice |
하위 미러가 하나 있는 단방향 미러를 만드십시오.
# metainit mirror -m submirror1 |
미러의 메타 장치 이름이나 볼륨 이름은 전체 클러스터에서 반드시 고유해야 합니다.
두 번째 하위 미러를 미러에 연결하십시오.
이것을 연결하면 하위 미러 동기화가 시작됩니다.
# metattach mirror submirror2 |
/etc/vfstab 파일에서 /global/.devices/node@nodeid 파일 시스템에 대한 항목을 편집하십시오.
device to mount 및 device to fsck 열의 이름을 미러 이름으로 바꾸십시오.
# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/mirror /dev/md/rdsk/mirror /global/.devices/node@nodeid ufs 2 no global |
단계 5에서 시작된 미러 동기화가 완료될 때까지 기다리십시오.
metastat(1M) 명령을 사용하여 미러 상태를 확인하고 미러 동기화가 완료되었는지 확인하십시오.
# metastat mirror |
전역 이름 공간을 미러하는 데 사용되는 디스크가 두 개 이상의 노드에 물리적으로 연결된 경우(멀티 호스트)에는 localonly 등록 정보를 활성화하십시오.
다음 단계를 수행하여 전역 이름 공간을 미러하는 데 사용되는 디스크에 대해 원시 디스크 장치 그룹의 localonly 등록 정보를 활성화하십시오. 부트 장치가 여러 노드에 연결된 경우 부트 장치가 노드에 액세스하지 못하는 문제를 방지하기 위해 localonly 등록 정보를 활성화해야 합니다.
필요한 경우 scdidadm(1M) 명령을 사용하여 원시 디스크 장치 그룹의 전체 장치 ID 경로 이름을 표시하십시오.
다음 예에서 원시 디스크 장치 그룹 이름 dsk/d2는 전체 장치 ID 경로 이름이 출력되는 세 번째 열에 포함되어 있습니다.
# scdidadm -L … 1 phys-schost-3:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 |
원시 디스크 장치 그룹의 노드 목록을 확인하십시오.
다음과 같이 출력됩니다.
# scconf -pvv | grep dsk/d2 Device group name: dsk/d2 … (dsk/d2) Device group node list: phys-schost-1, phys-schost-3 … |
노드 목록에 두 개 이상의 노드 이름이 포함된 경우에는 디스크가 미러되는 노드를 제외한 모든 노드를 노드 목록에서 제거하십시오.
디스크가 미러되는 노드만 원시 디스크 장치 그룹의 노드 목록에 남아 있어야 합니다.
# scconf -r -D name=dsk/dN,nodelist=node |
원시 디스크 장치 그룹의 이름을 클러스터에서 고유하게 지정합니다.
노드 목록에서 제거할 노드 이름을 지정합니다.
scconf(1M) 명령을 사용하여 localonly 등록 정보를 활성화하십시오.
localonly 등록 정보가 활성화된 경우 원시 디스크 장치 그룹은 해당 노드 목록의 노드에서만 사용합니다. 따라서 부트 장치가 여러 노드에 연결된 경우에 노드가 부트 장치에 액세스하지 못하는 문제가 발생하지 않습니다.
# scconf -c -D name=rawdisk-groupname,localonly=true |
원시 디스크 장치 그룹의 이름을 지정합니다.
localonly 등록 정보에 대한 자세한 내용은 scconf_dg_rawdisk(1M) 설명서 페이지를 참조하십시오.
(옵션) 마운트 해제할 수 없는 루트(/) 이외의 파일 시스템을 미러하려면 마운트 해제할 수 없는 루트(/) 이외의 파일 시스템을 미러하는 방법으로 이동하십시오.
(옵션) 사용자 정의 파일 시스템을 미러하려면 마운트 해제할 수 있는 파일 시스템을 미러하는 방법으로 이동하십시오.
디스크 세트를 만들려면 클러스터에 디스크 세트 만들기로 이동하십시오.
다음은 c0t0d0s3 분할 영역의 d111 하위 미러와 c2t2d0s3 분할 영역의 d121 하위 미러로 구성된 d101 미러를 만드는 예입니다. /etc/vfstab 파일에서 /global/.devices/node@1에 대한 항목이 미러 이름 d101을 사용하도록 업데이트됩니다. c2t2d0 장치는 멀티 호스트 디스크이므로 localonly 등록 정보가 활성화됩니다.
(Create the mirror) # metainit -f d111 1 1 c0t0d0s3 d111: Concat/Stripe is setup # metainit d121 1 1 c2t2d0s3 d121: Concat/Stripe is setup # metainit d101 -m d111 d101: Mirror is setup # metattach d101 d121 d101: Submirror d121 is attached (Edit the /etc/vfstab file) # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/d101 /dev/md/rdsk/d101 /global/.devices/node@1 ufs 2 no global (View the sync status) # metastat d101 d101: Mirror Submirror 0: d111 State: Okay Submirror 1: d121 State: Resyncing Resync in progress: 15 % done … (Identify the device-ID name of the mirrored disk's raw-disk device group) # scdidadm -L … 1 phys-schost-3:/dev/rdsk/c2t2d0 /dev/did/rdsk/d2 (Display the device-group node list) # scconf -pvv | grep dsk/d2 Device group name: dsk/d2 … (dsk/d2) Device group node list: phys-schost-1, phys-schost-3 … (Remove phys-schost-3 from the node list) # scconf -r -D name=dsk/d2,nodelist=phys-schost-3 (Enable the localonly property) # scconf -c -D name=dsk/d2,localonly=true |
/usr, /opt 또는 swap과 같이 정상적으로 시스템을 사용하는 동안 마운트 해제할 수 없는 루트(/) 이외의 파일 시스템을 미러하려면 이 절차를 사용하십시오.
클러스터의 노드에서 수퍼유저가 되십시오.
마운트 해제할 수 있는 파일 시스템이 있는 슬라이스로 단일 슬라이스(단방향) 연결을 만드십시오.
디스크 슬라이스의 물리 디스크 이름(cNtXdYsZ)을 지정하십시오.
# metainit -f submirror1 1 1 diskslice |
두 번째 연결을 만드십시오.
# metainit submirror2 1 1 submirror-diskslice |
하위 미러가 하나 있는 단방향 미러를 만드십시오.
# metainit mirror -m submirror1 |
이 미러의 메타 장치 이름이나 볼륨 이름은 전체 클러스터에서 고유하지 않아도 됩니다.
각 노드의 /etc/vfstab 파일에서 미러한 마운트 해제할 수 있는 각 파일 시스템에 대한 항목을 편집하십시오.
device to mount 및 device to fsck 열의 이름을 미러 이름으로 바꾸십시오.
# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/mirror /dev/md/rdsk/mirror /filesystem ufs 2 no global |
노드에서 자원 그룹 또는 장치 그룹을 이동하십시오.
# scswitch -S -h from-node |
모든 자원 그룹과 장치 그룹을 이동합니다.
자원 또는 장치 그룹을 이동할 노드의 이름을 지정합니다.
노드를 재부트하십시오.
# shutdown -g0 -y -i6 |
두 번째 하위 미러를 각 미러에 연결하십시오.
이것을 연결하면 하위 미러 동기화가 시작됩니다.
# metattach mirror submirror2 |
단계 9에서 시작된 미러 동기화가 완료될 때까지 기다리십시오.
metastat(1M) 명령을 사용하여 미러 상태를 확인하고 미러 동기화가 완료되었는지 확인하십시오.
# metastat mirror |
마운트 해제할 수 없는 파일 시스템을 미러하는 데 사용되는 디스크가 두 개 이상의 노드에 물리적으로 연결된 경우(멀티 호스트)에는 localonly 등록 정보를 활성화하십시오.
다음 단계를 수행하여 마운트 해제할 수 없는 파일 시스템을 미러하는 데 사용되는 디스크에 대해 원시 디스크 장치 그룹의 localonly 등록 정보를 활성화하십시오. 부트 장치가 여러 노드에 연결된 경우 부트 장치가 노드에 액세스하지 못하는 문제를 방지하기 위해 localonly 등록 정보를 활성화해야 합니다.
필요한 경우 scdidadm -L 명령을 사용하여 원시 디스크 장치 그룹의 전체 장치 ID 경로 이름을 표시하십시오.
다음 예에서 원시 디스크 장치 그룹 이름 dsk/d2는 전체 장치 ID 경로 이름이 출력되는 세 번째 열에 포함되어 있습니다.
# scdidadm -L … 1 phys-schost-3:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 |
원시 디스크 장치 그룹의 노드 목록을 확인하십시오.
다음과 같이 출력됩니다.
# scconf -pvv | grep dsk/d2 Device group name: dsk/d2 … (dsk/d2) Device group node list: phys-schost-1, phys-schost-3 … |
노드 목록에 두 개 이상의 노드 이름이 포함된 경우에는 루트 디스크가 미러되는 노드를 제외한 모든 노드를 노드 목록에서 제거하십시오.
루트 디스크가 미러되는 노드만 원시 디스크 장치 그룹의 노드 목록에 남아 있어야 합니다.
# scconf -r -D name=dsk/dN,nodelist=node |
원시 디스크 장치 그룹의 이름을 클러스터에서 고유하게 지정합니다.
노드 목록에서 제거할 노드 이름을 지정합니다.
scconf(1M) 명령을 사용하여 localonly 등록 정보를 활성화하십시오.
localonly 등록 정보가 활성화된 경우 원시 디스크 장치 그룹은 해당 노드 목록의 노드에서만 사용합니다. 따라서 부트 장치가 여러 노드에 연결된 경우에 노드가 부트 장치에 액세스하지 못하는 문제가 발생하지 않습니다.
# scconf -c -D name=rawdisk-groupname,localonly=true |
원시 디스크 장치 그룹의 이름을 지정합니다.
localonly 등록 정보에 대한 자세한 내용은 scconf_dg_rawdisk(1M) 설명서 페이지를 참조하십시오.
(옵션) 사용자 정의 파일 시스템을 미러하려면 마운트 해제할 수 있는 파일 시스템을 미러하는 방법으로 이동하십시오.
디스크 세트를 만들려면 클러스터에 디스크 세트 만들기로 이동하십시오.
다음은 c0t0d0s1에 있는 /usr을 미러하기 위해 노드 phys-schost-1에 미러 d1을 만드는 예입니다. 미러 d1은 c0t0d0s1 분할 영역에 있는 하위 미러 d11 및 c2t2d0s1 분할 영역에 있는 하위 미러 d21로 구성됩니다. /etc/vfstab 파일에서 /usr에 대한 항목이 미러 이름 d1을 사용하도록 업데이트됩니다. c2t2d0 장치는 멀티 호스트 디스크이므로 localonly 등록 정보가 활성화됩니다.
(Create the mirror) # metainit -f d11 1 1 c0t0d0s1 d11: Concat/Stripe is setup # metainit d21 1 1 c2t2d0s1 d21: Concat/Stripe is setup # metainit d1 -m d11 d1: Mirror is setup (Edit the /etc/vfstab file) # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/d1 /dev/md/rdsk/d1 /usr ufs 2 no global (Move resource groups and device groups from phys-schost-1) # scswitch -S -h phys-schost-1 (Reboot the node) # shutdown -g0 -y -i6 (Attach the second submirror) # metattach d1 d21 d1: Submirror d21 is attached (View the sync status) # metastat d1 d1: Mirror Submirror 0: d11 State: Okay Submirror 1: d21 State: Resyncing Resync in progress: 15 % done … (Identify the device-ID name of the mirrored disk's raw-disk device group) # scdidadm -L … 1 phys-schost-3:/dev/rdsk/c2t2d0 /dev/did/rdsk/d2 (Display the device-group node list) # scconf -pvv | grep dsk/d2 Device group name: dsk/d2 … (dsk/d2) Device group node list: phys-schost-1, phys-schost-3 … (Remove phys-schost-3 from the node list) # scconf -r -D name=dsk/d2,nodelist=phys-schost-3 (Enable the localonly property) # scconf -c -D name=dsk/d2,localonly=true |
마운트 해제할 수 있는 사용자 정의된 파일 시스템을 미러하려면 이 절차를 사용하십시오. 이 절차에서는 노드를 재부트하지 않아도 됩니다.
클러스터의 노드에서 수퍼유저가 되십시오.
미러할 파일 시스템을 마운트 해제하십시오.
파일 시스템에 실행되고 있는 프로세스가 없어야 합니다.
# umount /mount-point |
자세한 내용은 umount(1M) 설명서 페이지 및 System Administration Guide: Basic Administration의 “Mounting and Unmounting File Systems”를 참조하십시오.
마운트 해제할 수 있는 사용자 정의된 파일 시스템이 있는 슬라이스로 단일 슬라이스(단방향) 연결을 만드십시오.
디스크 슬라이스의 물리 디스크 이름(cNtXdYsZ)을 지정하십시오.
# metainit -f submirror1 1 1 diskslice |
두 번째 연결을 만드십시오.
# metainit submirror2 1 1 submirror-diskslice |
하위 미러가 하나 있는 단방향 미러를 만드십시오.
# metainit mirror -m submirror1 |
이 미러의 메타 장치 이름이나 볼륨 이름은 전체 클러스터에서 고유하지 않아도 됩니다.
각 노드의 /etc/vfstab 파일에서 미러한 각 파일 시스템에 대한 항목을 편집하십시오.
device to mount 및 device to fsck 열의 이름을 미러 이름으로 바꾸십시오.
# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/mirror /dev/md/rdsk/mirror /filesystem ufs 2 no global |
두 번째 하위 미러를 미러에 연결하십시오.
이것을 연결하면 하위 미러 동기화가 시작됩니다.
# metattach mirror submirror2 |
단계 8에서 시작된 미러 동기화가 완료될 때까지 기다리십시오.
미러 상태를 보려면 metastat(1M) 명령을 사용하십시오.
# metastat mirror |
사용자 정의 파일 시스템을 미러하는 데 사용되는 디스크가 두 개 이상의 노드에 물리적으로 연결된 경우(멀티 호스트)에는 localonly 등록 정보를 활성화하십시오.
다음 단계를 수행하여 사용자 정의 파일 시스템을 미러하는 데 사용되는 디스크에 대해 원시 디스크 장치 그룹의 localonly 등록 정보를 활성화하십시오. 부트 장치가 여러 노드에 연결된 경우 부트 장치가 노드에 액세스하지 못하는 문제를 방지하기 위해 localonly 등록 정보를 활성화해야 합니다.
필요한 경우 scdidadm -L 명령을 사용하여 원시 디스크 장치 그룹의 전체 장치 ID 경로 이름을 표시하십시오.
다음 예에서 원시 디스크 장치 그룹 이름 dsk/d4는 전체 장치 ID 경로 이름이 출력되는 세 번째 열에 포함되어 있습니다.
# scdidadm -L … 1 phys-schost-3:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 |
원시 디스크 장치 그룹의 노드 목록을 확인하십시오.
다음과 같이 출력됩니다.
# scconf -pvv | grep dsk/d2 Device group name: dsk/d2 … (dsk/d2) Device group node list: phys-schost-1, phys-schost-3 … |
노드 목록에 두 개 이상의 노드 이름이 포함된 경우에는 루트 디스크를 미러하는 노드를 제외한 모든 노드를 노드 목록에서 제거하십시오.
루트 디스크를 미러하는 노드만 원시 디스크 장치 그룹의 노드 목록에 남아 있어야 합니다.
# scconf -r -D name=dsk/dN,nodelist=node |
원시 디스크 장치 그룹의 이름을 클러스터에서 고유하게 지정합니다.
노드 목록에서 제거할 노드 이름을 지정합니다.
scconf(1M) 명령을 사용하여 localonly 등록 정보를 활성화하십시오.
localonly 등록 정보가 활성화된 경우 원시 디스크 장치 그룹은 해당 노드 목록의 노드에서만 사용합니다. 따라서 부트 장치가 여러 노드에 연결된 경우에 노드가 부트 장치에 액세스하지 못하는 문제가 발생하지 않습니다.
# scconf -c -D name=rawdisk-groupname,localonly=true |
원시 디스크 장치 그룹의 이름을 지정합니다.
localonly 등록 정보에 대한 자세한 내용은 scconf_dg_rawdisk(1M) 설명서 페이지를 참조하십시오.
미러된 파일 시스템을 마운트하십시오.
# mount /mount-point |
자세한 내용은 mount(1M) 설명서 페이지 및 System Administration Guide: Basic Administration의 “Mounting and Unmounting File Systems”를 참조하십시오.
디스크 세트를 만드십시오.
클러스터에 디스크 세트 만들기로 이동하십시오.
다음은 c0t0d0s4에 있는 /export를 미러하기 위하여 미러 d4를 만드는 예입니다. 미러 d4는 분할 영역 c0t0d0s4에 있는 하위 미러 d14와 분할 영역 c2t2d0s4에 있는 하위 미러 d24로 구성됩니다. /etc/vfstab 파일에서 /export에 대한 항목이 미러 이름 d4를 사용하도록 업데이트됩니다. c2t2d0 장치는 멀티 호스트 디스크이므로 localonly 등록 정보가 활성화됩니다.
(Unmount the file system) # umount /export (Create the mirror) # metainit -f d14 1 1 c0t0d0s4 d14: Concat/Stripe is setup # metainit d24 1 1 c2t2d0s4 d24: Concat/Stripe is setup # metainit d4 -m d14 d4: Mirror is setup (Edit the /etc/vfstab file) # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/d4 /dev/md/rdsk/d4 /export ufs 2 no global (Attach the second submirror) # metattach d4 d24 d4: Submirror d24 is attached (View the sync status) # metastat d4 d4: Mirror Submirror 0: d14 State: Okay Submirror 1: d24 State: Resyncing Resync in progress: 15 % done … (Identify the device-ID name of the mirrored disk's raw-disk device group) # scdidadm -L … 1 phys-schost-3:/dev/rdsk/c2t2d0 /dev/did/rdsk/d2 (Display the device-group node list) # scconf -pvv | grep dsk/d2 Device group name: dsk/d2 … (dsk/d2) Device group node list: phys-schost-1, phys-schost-3 … (Remove phys-schost-3 from the node list) # scconf -r -D name=dsk/d2,nodelist=phys-schost-3 (Enable the localonly property) # scconf -c -D name=dsk/d2,localonly=true (Mount the file system) # mount /export |
이 절에서는 클러스터 구성을 위해 디스크 세트를 만드는 방법을 설명합니다. 다음과 같은 경우에는 디스크 세트를 만들 필요가 없을 수도 있습니다.
SunPlex Installer를 사용하여 Solstice DiskSuite를 설치한 경우 1~3개 사이의 디스크 세트가 이미 있을 수 있습니다. SunPlex Installer에서 만든 메타 세트에 대한 자세한 내용은 SunPlex Installer를 사용하여 Sun Cluster 소프트웨어 설치를 참조하십시오.
Oracle Real Application Clusters에서 사용할 Solaris Volume Manager for Sun Cluster 디스크 세트를 만들려면 이 절차를 사용하지 마십시오. 그 대신 Sun Cluster Data Service for Oracle Real Application Clusters Guide for Solaris OS의 “Creating a Multi-Owner Disk Set in Solaris Volume Manager for Sun Cluster for the Oracle Real Application Clusters Database”에 있는 절차를 수행하십시오.
이 절에서 설명하는 절차는 다음과 같습니다.
이 절차를 수행하여 디스크 세트를 만드십시오.
새 디스크 세트를 만들고 나면 클러스터의 디스크 세트가 4개 이상이 되는지 확인하십시오.
클러스터에 있는 디스크 세트가 3개 이하인 경우에는 단계 2로 이동하십시오.
클러스터에 4개 이상의 디스크 세트가 있을 경우에는 다음 단계를 수행하여 클러스터를 준비하십시오.
디스크 세트를 처음으로 설치하든 완전히 구성된 클러스터에 추가하든 관계없이 이 작업을 수행해야 합니다.
클러스터의 노드에서 /kernel/drv/md.conf 파일에 있는 md_nsets 변수의 값을 확인하십시오.
클러스터에 있는 전체 디스크 세트 수가 기존의 md_nsets 값에서 1을 뺀 값보다 크면 각 노드에서 md_nsets의 값을 원하는 값으로 크게 설정하십시오.
디스크 세트 수의 최대값은 md_nsets의 구성된 값보다 하나 작은 값까지 사용할 수 있습니다. md_nsets의 최대 값은 32이므로 만들 수 있는 최대 디스크 세트 수는 31개입니다.
클러스터의 각 노드에서 /kernel/drv/md.conf 파일이 동일한지 확인하십시오.
이 설명을 따르지 않으면 심각한 Solstice DiskSuite 또는 Solaris 볼륨 관리자 오류가 발생하여 데이터를 잃을 수 있습니다.
어느 노드에서든 md.conf 파일을 변경한 경우에는 다음 단계를 수행하여 변경 사항이 적용되도록 하십시오.
클러스터의 각 노드에서 devfsadm(1M) 명령을 실행하십시오.
클러스터의 모든 노드에서 동시에 이 명령을 실행할 수 있습니다.
클러스터의 한 노드에서 scgdevs(1M) 명령을 사용하여 전역 장치 이름 공간을 업데이트하십시오.
각 노드에서 디스크 세트를 만들기 전에 scgdevs 명령이 완료되었는지 확인하십시오.
scgdevs 명령이 한 노드에서 실행될 경우에도 이 명령은 모든 노드에 있는 동일한 명령을 원격으로 호출합니다. scgdevs 명령이 프로세스를 완료했는지 확인하려면 클러스터의 각 노드에서 다음 명령을 실행하십시오.
% ps -ef | grep scgdevs |
만들려는 디스크 세트가 다음 요구 사항 중 한 가지를 충족시켜야 합니다.
디스크 세트가 정확히 2개의 디스크 문자열로 구성된 경우 디스크 세트는 정확히 2개의 노드에 연결되어야 하며 정확히 2개의 mediator 호스트를 사용해야 합니다. 이러한 mediator 호스트는 디스크 세트에 사용된 2개의 호스트와 같아야 합니다. 이중 문자열 mediator 구성 방법은 이중 문자열 Mediator 구성을 참조하십시오.
디스크 세트가 3개 이상의 디스크 문자열로 구성된 경우 임의로 선택한 2개의 디스크 문자열 S1과 S2의 드라이브 총 수가 세 번째 문자열 S3의 드라이브 수보다 큰지 확인합니다. 요구 사항을 공식으로 표현하면 개수(S1) + 개수(S2) > 개수(S3)이 됩니다.
로컬 상태 데이터베이스 복제본이 있는지 확인하십시오.
자세한 내용은 상태 데이터베이스 복제본을 만드는 방법을 참조하십시오.
디스크 세트를 마스터할 클러스터 노드에서 수퍼유저가 되십시오.
디스크 세트를 만드십시오.
다음 명령은 디스크 세트를 만들어 Sun Cluster 디스크 장치 그룹으로 등록합니다.
# metaset -s setname -a -h node1 node2 |
디스크 세트 이름을 지정합니다.
디스크 세트를 추가합니다(만듭니다).
디스크 세트를 마스터할 기본 노드의 이름을 지정합니다.
디스크 세트를 마스터할 보조 노드의 이름을 지정합니다.
metaset 명령을 사용하여 클러스터에 Solstice DiskSuite 또는 Solaris 볼륨 관리자 장치 그룹을 구성하면 기본적으로 하나의 보조 노드가 지정됩니다. 장치 그룹이 만들어진 후에 scsetup(1M) 유틸리티를 사용하여 장치 그룹에서 보조 노드의 수를 원하는 대로 변경할 수 있습니다. numsecondaries 등록 정보를 변경하는 방법은 Solaris OS용 Sun Cluster 시스템 관리 안내서의 “디스크 장치 그룹 관리”를 참조하십시오.
새 디스크 세트의 상태를 확인하십시오.
# metaset -s setname |
디스크 세트에 드라이브를 추가하십시오.
디스크 세트에 드라이브 추가로 이동하십시오.
다음 명령을 실행하면 기본 노드가 될 수 있는 노드로 지정된 phys-schost-1 및 phys-schost-2 노드를 사용하여 두 개의 디스크 세트 dg-schost-1 및 dg-schost-2를 만듭니다.
# metaset -s dg-schost-1 -a -h phys-schost-1 phys-schost-2 # metaset -s dg-schost-2 -a -h phys-schost-1 phys-schost-2 |
디스크 세트에 드라이브를 추가할 때 볼륨 관리 소프트웨어는 드라이브를 다음과 같이 다시 분할하여 디스크 세트의 상태 데이터베이스가 드라이브에 배치될 수 있도록 합니다.
각 드라이브에서 작은 공간이 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어에서 사용할 수 있도록 슬라이스 7에 예약됩니다. 각 드라이브의 나머지 공간은 슬라이스 0에 할당됩니다.
슬라이스 7이 제대로 구성되지 않은 경우에만 드라이브가 디스크 세트에 추가될 때 다시 분할됩니다.
드라이브를 다시 분할하면 기존 데이터는 삭제됩니다.
슬라이스 7이 실린더 0에서 시작되고 드라이브 분할 영역이 상태 데이터베이스 복제본을 포함할 수 있을 만큼 크면 드라이브가 다시 분할되지 않습니다.
노드에서 수퍼유저가 되십시오.
디스크 세트가 만들어졌는지 확인하십시오.
자세한 내용은 디스크 세트 작성 방법을 참조하십시오.
DID 매핑을 나열하십시오.
# scdidadm -L |
디스크 세트를 마스터하거나 마스터할 수도 있는 클러스터 노드가 공유하는 드라이브를 선택하십시오.
디스크 세트에 디스크 드라이브를 추가할 경우 전체 장치 ID 경로 이름을 사용하십시오.
출력되는 첫 번째 열은 DID 인스턴스 번호이고, 두 번째 열은 전체 물리적 경로 이름이고, 세 번째 열은 전체 장치 ID 경로 이름(의사 경로)입니다. 공유 드라이브에는 동일한 DID 인스턴스 번호에 대하여 두 개 이상의 항목이 있습니다.
다음 예에서, DID 인스턴스 번호 2의 항목은 phys-schost-1과 phys-schost-2가 공유하는 드라이브를 가리키며, 전체 장치 ID 경로 이름은 /dev/did/rdsk/d2입니다.
1 phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1 2 phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 2 phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 3 phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3 3 phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3 … |
디스크 세트의 소유권을 가지십시오.
# metaset -s setname -t |
디스크 세트 이름을 지정합니다.
디스크 세트의 소유권을 가집니다.
디스크 세트에 드라이브를 추가하십시오.
전체 장치 ID 경로 이름을 사용하십시오.
# metaset -s setname -a drivename |
디스크 세트에 드라이브를 추가합니다.
공유 드라이브의 전체 장치 ID 경로 이름입니다.
드라이브를 디스크 세트에 추가할 때는 하위 수준 장치 이름(cNtXdY)을 사용하지 마십시오. 하위 수준 장치 이름은 로컬 이름이므로 전체 클러스터에서 고유하지 않기 때문에 이 이름을 사용하면 메타 세트가 스위치오버되지 않을 수도 있습니다.
디스크 세트와 드라이브의 상태를 확인하십시오.
# metaset -s setname |
(옵션) 메타 장치 또는 볼륨에서 사용하기 위해 드라이브를 다시 분할하려면 디스크 세트의 드라이브를 다시 분할하는 방법으로 이동하십시오.
md.tab 파일을 만드는 방법으로 이동하여 md.tab 파일에서 메타 장치나 볼륨을 정의하십시오.
metaset 명령을 사용하면 드라이브 /dev/did/rdsk/d1 및 /dev/did/rdsk/d2가 디스크 세트 dg-schost-1에 추가됩니다.
# metaset -s dg-schost-1 -a /dev/did/rdsk/d1 /dev/did/rdsk/d2 |
metaset(1M) 명령을 실행하면 디스크 세트에서 드라이브를 다시 분할하여 슬라이스 7에서 각 드라이브의 작은 공간을 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어에 사용할 수 있도록 예약합니다. 각 드라이브의 나머지 공간은 슬라이스 0에 할당됩니다. 드라이브를 더 효율적으로 사용하려면 이 절차를 사용하여 디스크 레이아웃을 변경하십시오. 슬라이스 1부터 6까지 공간을 할당하면 Solstice DiskSuite 메타 장치나 Solaris 볼륨 관리자 볼륨을 설정할 때 이 슬라이스를 사용할 수 있습니다.
클러스터 노드에서 수퍼유저가 되십시오.
format 명령을 사용하여 디스크 세트의 각 드라이브에 대한 디스크 분할을 변경하십시오.
드라이브를 다시 분할할 때 metaset(1M) 명령이 드라이브를 다시 분할하지 않도록 하려면 다음과 같은 조건이 필요합니다.
실린더 0에서 시작하고 상태 데이터베이스 복제본을 저장할만큼 충분히 큰 슬라이스 7을 만드십시오. Solstice DiskSuite 또는 Solaris 볼륨 관리자 관리 설명서를 참조하여 볼륨 관리자 소프트웨어 버전에 맞는 상태 데이터베이스 복제본 크기를 결정하십시오.
슬라이스 7의 Flag 필드를 wu (읽기, 쓰기, 마운트 해제 가능)로 설정하십시오. 읽기 전용으로 설정하지 마십시오.
슬라이스 7이 드라이브의 다른 슬라이스와 겹치지 않도록 하십시오.
자세한 내용은 format(1M) 설명서 페이지를 참조하십시오.
md.tab 파일을 사용하여 메타 장치나 볼륨을 정의하십시오.
md.tab 파일을 만드는 방법으로 이동하십시오.
클러스터의 각 노드에 /etc/lvm/md.tab 파일을 만드십시오. 만든 디스크 세트에 대하여 Solstice DiskSuite 메타 장치나 Solaris 볼륨 관리자 볼륨을 정의하려면 md.tab 파일을 사용하십시오.
로컬 메타 장치나 볼륨을 사용하는 경우에는 로컬 메타 장치나 볼륨의 이름이 디스크 세트를 만드는 데 사용된 장치 ID 이름과 구별되어야 합니다. 예를 들어, /dev/did/dsk/d3이 디스크 세트에서 장치 ID 이름으로 사용되면 /dev/md/dsk/d3을 로컬 메타 장치나 볼륨의 이름으로 사용하지 마십시오. 이름 지정 규칙 /dev/md/setname/{r}dsk/d#을 사용하는 공유 메타 장치나 볼륨에는 이 요구 사항이 적용되지 않습니다.
클러스터 환경에서 로컬 메타 장치나 볼륨 사이의 혼동을 피하려면 전체 클러스터에서 각 로컬 메타 장치나 볼륨의 이름이 고유하도록 지정하십시오. 예를 들어, 노드 1에는 d100-d199 사이의 이름을 선택하고 노드 2에는 d200-d299 사이의 이름을 선택합니다.
클러스터 노드에서 수퍼유저가 되십시오.
md.tab 파일을 만들 때 참조할 수 있도록 DID 매핑을 표시하십시오.
md.tab 파일에 하위 수준 장치 이름(cNtXdY) 대신 전체 장치 ID 경로 이름을 사용하십시오.
# scdidadm -L |
다음 예에서 출력되는 첫 번째 열은 DID 인스턴스 번호이고, 두 번째 열은 전체 경로(물리적 경로)이고, 세 번째 열은 전체 장치 ID 경로 이름(의사 경로)입니다.
1 phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1 2 phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 2 phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 3 phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3 3 phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3 … |
/etc/lvm/md.tab 파일을 만들고 원하는 텍스트 편집기를 사용하여 직접 파일을 편집하십시오.
md.tab 파일을 만드는 방법은 Solstice DiskSuite 또는 Solaris 볼륨 관리자 설명서와 md.tab(4) 설명서 페이지를 참조하십시오.
하위 미러에 사용될 드라이브에 기존 데이터가 있는 경우 메타 장치 또는 볼륨을 설정하기 전에 데이터를 백업해야 합니다. 그런 다음 데이터를 미러에 복원합니다.
md.tab 파일에 정의된 메타 장치나 볼륨을 활성화하십시오.
메타 장치나 볼륨을 활성화하는 방법으로 이동하십시오.
다음 샘플 md.tab 파일에서는 이름이 dg-schost-1인 디스크 세트를 정의합니다. md.tab 파일에서 행의 순서는 중요하지 않습니다.
dg-schost-1/d0 -m dg-schost-1/d10 dg-schost-1/d20 dg-schost-1/d10 1 1 /dev/did/rdsk/d1s0 dg-schost-1/d20 1 1 /dev/did/rdsk/d2s0 |
다음은 Solstice DiskSuite 용어를 사용하는 예입니다. Solaris 볼륨 관리자에서는 트랜스 메타 장치를 트랜잭션 볼륨이라고 하고 메타 장치를 볼륨이라고 합니다. 이외의 경우에는 다음 프로세스가 두 가지 볼륨 관리자에 모두 사용됩니다.
md.tab 파일 샘플은 다음과 같이 구성되어 있습니다.
첫 번째 줄에서는 장치 d0을 메타 장치 d10 및 d20의 미러로 정의합니다. -m 옵션은 이 장치가 미러 장치임을 지정합니다.
dg-schost-1/d0 -m dg-schost-1/d0 dg-schost-1/d20 |
두 번째 줄에서는 메타 장치 d10(d0의 첫 번째 하위 미러)을 단방향 스트라이프로 정의합니다.
dg-schost-1/d10 1 1 /dev/did/rdsk/d1s0 |
세 번째 줄에서는 메타 장치 d20(d0의 두 번째 하위 미러)을 단방향 스트라이프로 정의합니다.
dg-schost-1/d20 1 1 /dev/did/rdsk/d2s0 |
md.tab 파일에 정의된 Solstice DiskSuite 메타 장치나 Solaris 볼륨 관리자 볼륨을 활성화하려면 이 절차를 수행하십시오.
클러스터 노드에서 수퍼유저가 되십시오.
md.tab 파일이 /etc/lvm 디렉토리에 있어야 합니다.
명령이 실행되는 노드의 디스크 세트에 대한 소유권이 있어야 합니다.
디스크 세트의 소유권을 가지십시오.
# metaset -s setname -t |
디스크 세트 이름을 지정합니다.
디스크 세트의 소유권을 가집니다.
md.tab 파일에 정의된 디스크 세트의 메타 장치 또는 볼륨을 활성화하십시오.
# metainit -s setname -a |
md.tab 파일에 있는 모든 메타 장치를 활성화합니다.
각 마스터 및 로그 장치에 대하여 두 번째 하위 미러(submirror2)를 연결하십시오.
md.tab 파일에 정의된 메타 장치나 볼륨이 활성화되면 마스터 장치와 로그 장치의 첫 번째 하위 미러(submirror1)만 연결되므로 submirror2는 직접 연결해야 합니다.
# metattach mirror submirror2 |
클러스터의 각 디스크 세트에 대하여 단계 3부터 단계 6까지 반복하십시오.
필요한 경우 드라이브에 연결된 다른 노드에서 metainit(1M) 명령을 실행하십시오. 클러스터 쌍 토폴로지의 경우에는 일부 노드에서 드라이브에 액세스하지 못할 수도 있기 때문에 이 단계가 필요합니다.
메타 장치나 볼륨의 상태를 확인하십시오.
# metastat -s setname |
자세한 내용은 metastat(1M) 설명서 페이지를 참조하십시오.
클러스터에 정확히 디스크 외장 장치 2개와 노드 2개로 구성된 디스크 세트가 포함된 경우에는 이중 문자열 mediator를 추가하십시오.
이중 문자열 Mediator 구성으로 이동하십시오.
클러스터 파일 시스템을 만드는 방법으로 이동하여 클러스터 파일 시스템을 만드십시오.
다음 예에서는 디스크 세트 dg-schost-1에 대하여 md.tab 파일에 정의된 모든 메타 장치가 활성화됩니다. 그런 다음 마스터 장치 dg-schost-1/d1과 로그 장치 dg-schost-1/d4의 두 번째 하위 미러가 활성화됩니다.
# metainit -s dg-schost-1 -a # metattach dg-schost-1/d1 dg-schost-1/d3 # metattach dg-schost-1/d4 dg-schost-1/d6 |
이중 문자열 mediator 또는 mediator 호스트는 mediator 데이터를 저장하는 클러스터 노드입니다. mediator 데이터는 다른 mediator의 위치에 대한 정보를 제공하고 데이터베이스 복제본에 저장된 완결 계수와 동일한 완결 계수를 포함합니다. 이 완결 계수는 mediator 데이터가 데이터베이스 복제본의 데이터와 동기화되어 있는지 확인하는 데 사용됩니다.
이중 문자열 mediator는 정확히 2개의 디스크 문자열과 2개의 클러스터 노드로 구성되는 모든 Solstice DiskSuite 또는 Solaris 볼륨 관리자 디스크 세트에 필요합니다. 디스크 문자열은 디스크 외장 장치, 포함된 물리적 드라이브, 외장 장치와 노드 사이의 케이블, 인터페이스 어댑터 카드 등으로 구성됩니다. mediator를 사용하면 이중 문자열 구성에서 하나의 문자열에 장애가 발생할 경우에도 Sun Cluster 소프트웨어가 최신 데이터를 유지할 수 있습니다. mediator를 사용하는 이중 문자열 구성에는 다음 규칙이 적용됩니다.
정확히 2개의 mediator 호스트로 디스크 세트를 구성해야 합니다. 이 두 mediator 호스트는 디스크 세트에 사용되는 것과 동일한 두 클러스터 노드이어야 합니다.
디스크 세트에 mediator 호스트가 세 개 이상 있으면 안됩니다.
두 개의 문자열 및 두 개의 호스트 기준을 충족시키지 않는 디스크 세트에는 mediator를 구성할 수 없습니다.
전체 클러스터에 정확히 두 개의 노드가 있어야 이 규칙이 충족되는 것은 아닙니다. 두 디스크 문자열이 있는 디스크 세트만 정확히 두 노드에 연결되어야 합니다. 이 규칙에 따라 N+1 클러스터 및 여러 가지 다른 토폴로지를 구성할 수 있습니다.
구성에 이중 문자열 mediator가 필요한 경우 다음 절차를 수행하십시오.
mediator 호스트를 추가할 대상 디스크 세트를 마스터하는 노드에서 수퍼유저가 되십시오.
metaset(1M) 명령을 실행하여 디스크 세트에 연결된 각 노드를 해당 디스크 세트에 대한 mediator 호스트로 추가하십시오.
# metaset -s setname -a -m mediator-host-list |
디스크 세트 이름을 지정합니다.
디스크 세트에 추가합니다.
추가할 노드 이름을 디스크 세트의 mediator 호스트로 지정합니다.
metaset 명령에 사용하는 mediator 관련 옵션에 대한 자세한 내용은 mediator(7D) 설명서 페이지를 참조하십시오.
mediator 데이터의 상태를 확인하십시오.
Mediator 데이터의 상태를 검사하는 방법으로 이동하십시오.
다음은 노드 phys-schost-1 및 phys-schost-2를 디스크 세트 dg-schost-1의 mediator 호스트로 추가하는 예입니다. 두 명령은 노드 phys-schost-1에서 실행됩니다.
# metaset -s dg-schost-1 -a -m phys-schost-1 # metaset -s dg-schost-1 -a -m phys-schost-2 |
Mediator 호스트를 추가하는 방법의 설명에 따라 mediator 호스트를 추가하십시오.
medstat 명령을 실행하십시오.
# medstat -s setname |
디스크 세트 이름을 지정합니다.
자세한 내용은 medstat(1M) 설명서 페이지를 참조하십시오.
medstat 출력의 상태 필드 값이 Bad이면 영향을 받은 mediator 호스트를 복구하십시오.
잘못된 Mediator 데이터를 복구하는 방법으로 이동하십시오.
클러스터 파일 시스템을 만드는 방법으로 이동하여 클러스터 파일 시스템을 만드십시오.
잘못된 mediator 데이터를 복구하려면 다음 절차를 수행하십시오.
Mediator 데이터의 상태를 검사하는 방법의 설명에 따라 잘못된 mediator 데이터가 있는 모든 mediator 호스트를 확인하십시오.
영향을 받은 디스크 세트가 있는 노드에서 수퍼유저가 되십시오.
영향을 받은 모든 디스크 세트에서 잘못된 mediator 데이터가 있는 mediator 호스트를 모두 제거하십시오.
# metaset -s setname -d -m mediator-host-list |
디스크 세트 이름을 지정합니다.
디스크 세트에서 삭제합니다.
제거할 노드 이름을 디스크 세트의 mediator 호스트로 지정합니다.
단계 3에서 제거한 mediator 호스트를 각각 복원합니다.
# metaset -s setname -a -m mediator-host-list |
디스크 세트에 추가합니다.
추가할 노드 이름을 디스크 세트의 mediator 호스트로 지정합니다.
metaset 명령에 사용하는 mediator 관련 옵션에 대한 자세한 내용은 mediator(7D) 설명서 페이지를 참조하십시오.
클러스터 파일 시스템을 만드십시오.
클러스터 파일 시스템을 만드는 방법으로 이동하십시오.