Sun Custer 3.0 5/02 추가 정보

5장 데이터 서비스

이 단원에서는 Sun Cluster 3.0 5/02 업데이트 릴리스에 새로 추가된 데이터 서비스 설치 및 구성 정보에 대하여 설명합니다. 이 내용은 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide에 대한 추가 정보입니다. 새로운 클러스터 프레임워크 설치에 대한 내용은 제 4 장을 참조하십시오.

이 단원에서 설명하는 새로운 정보는 다음과 같은 내용입니다.

Sun Cluster HA for SAP 설치 및 구성

다음과 같은 내용이 이번 업데이트 릴리스와 이후의 모든 업데이트에 적용됩니다.

자원 그룹과 디스크 장치 그룹 사이의 시작 동기화

다음과 같은 기능이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 추가되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

클러스터가 부트되거나 서비스가 다른 노드로 페일오버된 후에 글로벌 장치와 클러스터 파일 시스템을 사용할 수 있을 때까지 약간의 시간이 걸릴 수 있습니다. 그러나 데이터 서비스에서 사용하는 글로벌 장치와 클러스터 파일 시스템이 온라인 상태가 되기 전에 데이터 서비스가 START 메소드를 실행할 수 있습니다. 이 경우에는 START 메소드의 시간이 초과되기 때문에 데이터 서비스가 사용하는 자원 그룹의 상태를 초기화하고 직접 데이터 서비스를 다시 시작해야 합니다. 자원 유형 HAStorage 및 HAStoragePlus가 글로벌 장치와 클러스터 파일 시스템을 모니터하여 사용할 수 있게 될 때까지 동일한 자원 그룹에 포함된 다른 자원의 START 메소드를 대기시킵니다. (사용할 자원 유형을 결정하려면 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide에 있는 "권장 사항"을 참조하십시오.) 추가 관리 작업이 발생하지 않도록 하려면 글로벌 장치나 클러스터 파일 시스템을 사용하는 데이터 서비스 자원이 포함된 모든 자원 그룹에 대하여 HAStorage 또는 HAStoragePlus를 설정하십시오.

HAStoragePlus 자원 유형을 만들려면 "HAStoragePlus 자원 유형을 설정하는 방법(5/02)"을 참조하십시오.

가용성이 높은 로컬 파일 시스템 만들기

다음과 같은 기능이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 추가되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

HAStoragePlus 자원 유형을 사용하면 Sun Cluster 환경에서 로컬 파일 시스템의 가용성을 높일 수 있습니다. 로컬 파일 시스템 파티션이 유사 작동 스위치오버 기능이 있는 글로벌 디스크 그룹에 있고 Sun Cluster 환경에 페일오버 기능이 구성되어 있어야 합니다. 그러면 멀티호스트 디스크에 직접 연결된 모든 호스트에서 멀티호스트 디스크에 있는 모든 파일 시스템에 액세스할 수 있도록 할 수 있습니다. (루트 파일 시스템은 HAStoragePlus를 사용하여 가용성을 높일 수 없습니다.)

I/O 작업이 집중되는 일부 데이터 서비스에서는 가용성이 높은 로컬 파일 시스템을 사용하는 것이 좋기 때문에 이러한 데이터 서비스에 대한 등록 및 구성 절차에 HAStoragePlus 자원 유형 구성에 대한 내용이 추가되었습니다. 이러한 데이터 서비스에 대하여 HAStoragePlus 자원 유형을 설정하는 방법은 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide의 다음 단락에서 설명하는 절차를 참조하십시오.

다른 데이터 서비스에 대하여 HAStoragePlus 자원 유형을 설정하는 절차는 "HAStoragePlus 자원 유형을 설정하는 방법(5/02)"을 참조하십시오.

HAStoragePlus 자원 유형을 설정하는 방법(5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

HAStoragePlus 자원 유형은 Sun Cluster 3.0 5/02 업데이트에서 추가되었습니다. 새로운 이 자원 유형은 HAStorage와 동일한 기능을 수행하고 자원 그룹과 디스크 장치 그룹의 시작을 동기화합니다. HAStoragePlus 자원 유형에는 로컬 파일 시스템의 가용성을 높이는 추가 기능이 있습니다. 로컬 파일 시스템의 가용성을 높이는 기능에 대한 배경 정보는 "가용성이 높은 로컬 파일 시스템 만들기"를 참조하십시오. 이러한 두 가지 기능을 사용하려면 HAStoragePlus 자원 유형을 설정하십시오.

HAStoragePlus를 설정하려면 로컬 파일 시스템이 유사 작동 스위치오버 기능이 있는 글로벌 디스크 그룹에 있고 Sun Cluster 환경에 페일오버 기능이 구성되어 있어야 합니다.

다음 예에서는 로컬로 마운트된 디렉토리 /global/local-fs/nfs/export/home에서 홈 디렉토리 데이터를 공유하는 간단한 NFS 서비스를 사용합니다. 이 예에서는 다음과 같이 가정합니다.

  1. 클러스터 구성 노드에서 수퍼유저가 되십시오.

  2. 자원 유형이 등록되었는지 확인하십시오1.

    다음 명령을 실행하면 등록된 자원 유형 목록이 인쇄됩니다.


    # scrgadm -p | egrep Type
    

  3. 필요하면 자원 유형을 등록하십시오.


    # scrgadm -a -t SUNW.nfs
    

  4. 페일오버 자원 그룹 nfs-r을 만드십시오.


    # scrgadm -a -g nfs-rg -y PathPrefix=/global/local-fs/nfs
    

  5. SUNW.LogicalHostname 유형의 논리 호스트 자원을 만드십시오.


    # scrgadm -a -j nfs-lh-rs -g nfs-rg -L -l log-nfs
    

  6. HAStoragePlus 자원 유형을 클러스터에 등록하십시오.


    # scrgadm -a -t SUNW.HAStoragePlus
    

  7. SUNW.HAStoragePlus 유형의 자원 nfs-hastp-rs를 만드십시오.


    # scrgadm -a -j nfs-hastp-rs -g nfs-rg -t SUNW.HAStoragePlus \
    -x FilesystemMountPoints=/global/local-fs/nfs \
    -x AffinityOn=TRUE
    

  8. 하나의 클러스터 노드에서 자원 그룹 nfs-rg를 온라인으로 전환하십시오.

    이 노드가 /global/local-fs/nfs 파일 시스템의 하부 글로벌 장치 파티션에 대한 1차 노드가 됩니다. 그러면 파일 시스템 /global/local-fs/nfs가 이 노드에 로컬로 마운트됩니다.


    # scswitch -Z -g nfs-rg
    

  9. SUNW.NFS 자원 유형을 클러스터에 등록하십시오. SUNW.nfs 유형의 자원 nfs-rs를 만들고 자원 nfs-hastp-rs에 대한 이 자원의 의존성을 지정하십시오.

    dfstab.nfs-rs/global/local-fs/nfs/SUNW.nfs에 표시됩니다.


    # scrgadm -a -t SUNW.nfs
    # scrgadm -a -g nfs-rg -j nfs-rs -t SUNW.nfs \
    -y Resource_dependencies=nfs-hastp-rs
    


    주 -

    nfs 자원에 의존성을 설정하려면 먼저 nfs-hastp-rs 자원이 온라인 상태가 되어야 합니다.


  10. 자원 nfs-rs를 온라인 상태로 전환하십시오.


    # scswitch -Z -g nfs-rg
    

이제 서비스가 새 노드로 전환될 때마다 /global/local-fs/nfs에 대한 1차 I/O 경로가 항상 온라인 상태가 되고 NFS 서버와 연결됩니다. 파일 시스템 /global/local-fs/nfs는 NFS 서버를 시작하기 전에 로컬로 마운트됩니다.

Oracle용 Sun Cluster HA 등록 및 구성

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다. Oracle용 Sun Cluster HA를 페일오버 데이터 서비스로 등록하여 구성하십시오. 데이터 서비스를 등록하고 Oracle 서버 및 리스너를 위한 자원 그룹과 자원을 구성해야 합니다. 자원 및 자원 그룹에 대한 자세한 내용은 Sun Cluster 3.0 12/01 개념Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide 문서에 있는 "Sun Cluster 데이터 서비스에 대한 계획"을 참조하십시오.

Oracle용 Sun Cluster HA를 등록하고 구성하는 방법(5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다. 이 절차에서는 scrgadm 명령을 사용하여 Oracle용 Sun Cluster HA를 등록하고 구성하는 방법을 설명합니다.

이 절차에는 HAStoragePlus 자원 유형을 만드는 단계가 포함되어 있습니다. 이 자원 유형은 HAStoragePlus와 데이터 서비스의 작업을 동기화하기 때문에 가용성이 높은 로컬 파일 시스템을 사용할 수 있습니다. Oracle용 Sun Cluster HA는 디스크를 많이 사용하기 때문에 HAStoragePlus 자원 유형을 구성해야 합니다.

배경 정보는 SUNW.HAStoragePlus(5) 설명서 페이지와 5 페이지의 "자원 그룹과 디스크 장치 그룹 사이의 관계"를 참조하십시오.


주 -

다른 옵션을 사용하여 데이터 서비스를 등록하고 구성할 수도 있습니다. 이러한 옵션에 대한 자세한 내용은 10 페이지의 "데이터 서비스 자원 관리를 위한 도구"를 참조하십시오.


이 절차를 수행하려면 다음 정보가 있어야 합니다.


주 -

임의의 클러스터 구성원에 대하여 다음 절차를 수행하십시오.


  1. 클러스터 구성 노드에서 수퍼유저가 되십시오.

  2. scrgadm 명령을 실행하여 데이터 서비스를 위한 자원 유형을 등록하십시오.

    Oracle용 Sun Cluster HA의 경우에는 다음과 같이 SUNW.oracle_serverSUNW.oracle_listener 두 가지 자원 유형을 등록하십시오.


    # scrgadm -a -t SUNW.oracle_server
    # scrgadm -a -t SUNW.oracle_listener
    

    -a

    데이터 서비스 자원 유형을 추가합니다.

    -t SUNW.oracle_type

    데이터 서비스에 대하여 사전에 정의된 자원 유형을 지정합니다.

  3. 네트워크 및 응용프로그램 자원을 포함할 페일오버 자원 그룹을 만드십시오.

    다음과 같이 -h 옵션을 사용하여 데이터 서비스를 실행할 수 있는 노드 세트를 선택할 수 있습니다.


    # scrgadm -a -g resource-group [-h nodelist]
    -g resource-group

    자원 그룹의 이름을 지정합니다. 이 이름은 사용자가 선택할 수 있지만 클러스터 내의 자원 그룹에 대하여 고유해야 합니다.

    -h nodelist

    마스터가 될 수 있는 물리적 노드 이름이나 ID를 쉼표로 분리하여 표시하는 목록을 지정합니다. 이 목록에 나오는 순서에 따라 페일오버할 때 1차가 되는 노드 순서가 결정됩니다.


    주 -

    노드 목록의 순서를 지정하려면 -h 옵션을 사용하십시오. 클러스터에 있는 모든 노드가 마스터가 될 수 있으면 -h 옵션을 사용할 필요가 없습니다.


  4. 사용하는 모든 네트워크 자원이 이름 서비스 데이터베이스에 추가되었는지 확인하십시오.

    Sun Cluster를 설치할 때 이것을 확인해야 합니다.


    주 -

    이름 서비스 조회 때문에 장애가 발생하지 않도록 하려면 모든 네트워크 자원이 서버 및 클라이언트의 /etc/hosts 파일에 있어야 합니다.


  5. 네트워크 자원을 페일오버 자원 그룹에 추가하십시오.


    # scrgadm -a -L -g resource-group -l logical-hostname [-n netiflist] 
    -l logical-hostname

    네트워크 자원을 지정합니다. 네트워크 자원은 클라이언트가 Oracle용 Sun Cluster HA에 액세스하기 위해 사용하는 논리 호스트 이름 또는 공유 주소(IP 주소)입니다.

    [-n netiflist]

    각 노드의 NAFO 그룹을 나타내는 쉼표로 분리된 옵션 목록을 지정합니다. 자원 그룹의 nodelist에 있는 모든 노드가 netiflist에 있어야 합니다. 이 옵션을 지정하지 않을 경우, scrgadm(1M) 명령을 실행하면 nodelist의 각 노드에 대하여 hostname 목록에 표시된 하위 네트워크에서 네트워크 어댑터를 찾습니다. 예를 들어, -n nafo0@nodename, nafo0@nodename2와 같이 지정합니다.

  6. HAStoragePlus 자원 유형을 클러스터에 등록하십시오.


    # scrgadm -a -t SUNW.HAStoragePlus
    

  7. HAStoragePlus 유형의 자원 oracle-hastp-rs를 만드십시오.


    # scrgadm -a -j oracle-hastp-rs -g oracle-rg -t SUNW.HAStoragePlus \
     
    [데이터베이스가 원시 장치에 있으면 글로벌 장치 경로를 지정하십시오.]
    -x GlobalDevicePaths=ora-set1,/dev/global/dsk/dl \
     
    [데이터베이스가 클러스터 파일 서비스에 있으면 글로벌 파일 시스템 마운트 포인트를 지정하십시오.]
    -x FilesystemMountPoints=/global/ora-inst,/global/ora-data/logs \
     
    [데이터베이스가 가용성이 높은 로컬 파일 시스템에 있으면 로컬 파일 시스템 마운트 포인트를 지정하십시오.]
    -x FilesystemMountPoints=/local/ora-data \
     
    [AffinityOn을 true로 설정하십시오.]
    -x AffinityOn=TRUE
    


    주 -

    AffinityOn은 TRUE로 설정되어야 하고 로컬 파일 시스템이 페일오버되려면 글로벌 디스크 그룹에 있어야 합니다.


  8. 하나의 클러스터 노드에서 scrgadm 명령을 실행하여 다음 작업을 완료하고 자원 그룹 oracle-rg를 온라인 상태로 전환하십시오.

    • 자원 그룹을 관리되는 상태로 변경하십시오.

    • 자원 그룹을 온라인 상태로 전환하십시오.

    이 노드가 장치 그룹 ora-set1 및 원시 장치 /dev/global/dsk/d1에 대한 1차 노드가 됩니다. /global/ora-inst/global/ora-data/logs와 같은 파일 시스템과 연결된 장치 그룹도 이 노드에 1차를 만듭니다.


    # scrgadm -Z -g oracle-rg
    

  9. 페일오버 자원 그룹에 Oracle 응용프로그램 자원을 만드십시오.


    # scrgadm -a -j resource -g resource-group \
    
    -t SUNW.oracle_server \ 
    -x Connect_string=user/passwd \
    -x ORACLE_SID=instance \
    -x ORACLE_HOME=Oracle-home \
    -x Alert_log_file=path-to-log \
    -y resource_dependencies=storageplus-resource
     
    # scrgadm -a -j resource -g resource-group \
    -t SUNW.oracle_listener \
    -x LISTENER_NAME=listener \
    -x ORACLE_HOME=Oracle-home \
    -y resource_dependencies=storageplus-resource
    

    -j resource

    추가할 자원의 이름을 지정합니다.

    -g resource-group

    자원을 포함시킬 자원 그룹의 이름을 지정합니다.

    -t SUNW.oracle_server/listener

    추가할 자원의 유형을 지정합니다.

    -x Alert_log_file=path-to-log

    서버의 메시지 로그를 기록할 경로를 $ORACLE_HOME 아래에 설정합니다.

    -x Connect_string=user/passwd

    결함 모니터가 데이터베이스에 연결하기 위해 사용하는 사용자와 암호를 지정합니다. 이러한 설정이 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide 23 페이지에 있는 "Oracle 데이터베이스 사용 권한을 설정하는 방법"에서 설정하는 사용 권한과 일치해야 합니다. Solaris의 권한 지정 방식을 사용할 경우에는 사용자 이름과 암호 대신 슬래시(/)를 입력하십시오.

    -x ORACLE_SID=instance

    Oracle 시스템 식별자를 설정합니다.

    -x LISTENER_NAME=listener

    Oracle 리스너 인스턴스의 이름을 설정합니다. 이 이름은 listener.ora에 있는 해당 항목과 일치해야 합니다.

    -x ORACLE_HOME=Oracle-home

    Oracle 홈 디렉토리의 경로를 설정합니다.


    주 -

    Oracle 서버 자원에 결함이 발생하여 다시 시작될 경우에는 전체 자원 그룹이 다시 시작됩니다. 자원 그룹에 있는 다른 자원(예: Apache 또는 DNS)에는 결함이 없어도 모두 다시 시작됩니다. 다른 자원이 Oracle 서버 자원과 함께 다시 시작되지 않게 하려면 다른 자원 그룹에 따로 넣으십시오.

    기본값 대신 Oracle 데이터 서비스에 속하는 확장 등록 정보를 추가로 설정할 수도 있습니다. 확장 등록 정보 목록은 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide에 있는 "Configuring Sun Cluster HA for Oracle 확장 등록 정보 구성"을 참조하십시오.


  10. scswitch 명령을 실행하여 다음 작업을 완료하십시오.

    • 자원 및 결함 모니터링을 활성화하십시오.


      # scswitch -Z -g resource-group
      
      -Z

      자원 및 결함 모니터를 활성화하고 자원 그룹을 관리되는 상태로 변경하고 온라인 상태로 전환합니다.

      -g resource-group

      자원 그룹의 이름을 지정합니다.

예: Oracle용 Sun Cluster HA 등록

다음은 2 노드 클러스터에서 Oracle용 Sun Cluster HA를 등록하는 방법을 설명하는 예입니다.


Cluster Information
Node names: phys-schost-1, phys-schost-2
Logical Hostname: schost-1
Resource group: resource-group-1 (페일오버 자원 그룹)
Oracle Resources: oracle-server-1, oracle-listener-1
Oracle Instances: ora-lsnr (리스너), ora-srvr (서버)
 
(페일오버 자원 그룹을 추가하여 모든 자원을 포함시키십시오.)
# scrgadm -a -g resource-group-1
 
(논리 호스트 이름 자원을 자원 그룹에 추가하십시오.)
# scrgadm -a -L -g resource-group-1 -l schost-1 
 
(Oracle 자원 유형을 등록하십시오)
# scrgadm -a -t SUNW.oracle_server
# scrgadm -a -t SUNW.oracle_listener
 
(Add the Oracle application resources to the resource group.)
# scrgadm -a -j oracle-server-1 -g resource-group-1 \
-t SUNW.oracle_server -x ORACLE_HOME=/global/oracle \
-x Alert_log_file=/global/oracle/message-log \
-x ORACLE_SID=ora-srvr -x Connect_string=scott/tiger
 
# scrgadm -a -j oracle-listener-1 -g resource-group-1 \
-t SUNW.oracle_listener -x ORACLE_HOME=/global/oracle \
-x LISTENER_NAME=ora-lsnr
 
(자원 그룹을 온라인 상태로 전환하십시오.)
# scswitch -Z -g resource-group-1

Sybase ASE용 Sun Cluster HA 등록 및 구성

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다. Sybase ASE용 Sun Cluster HA 데이터 서비스를 등록하고 구성하려면 이 단락의 절차를 사용하십시오. Sybase ASE용 Sun Cluster HA를 페일오버 데이터 서비스로 등록하고 구성하십시오.

Sybase ASE용 Sun Cluster HA를 등록하고 구성하는 방법(5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다. 이 절차에서는 scrgadm(1M) 명령을 사용하여 Sybase ASE용 Sun Cluster HA를 등록하고 구성하는 방법을 설명합니다.

이 절차에는 HAStoragePlus 자원 유형을 만드는 단계가 포함되어 있습니다. 이 자원 유형은 HAStorage와 Sybase ASE용 Sun Cluster HA의 작업을 동기화하기 때문에 가용성이 높은 로컬 파일 시스템을 사용할 수 있습니다. Sybase ASE용 Sun Cluster HA는 디스크를 많이 사용하기 때문에 HAStoragePlus 자원 유형을 구성해야 합니다.

HAStoragePlus 자원 유형에 대한 자세한 내용은 SUNW.HAStoragePlus(5) 설명서 페이지와 5 페이지에 있는 "자원 그룹과 디스크 장치 그룹 사이의 관계"를 참조하십시오.


주 -

다른 옵션을 사용하여 데이터 서비스를 등록하고 구성할 수도 있습니다. 이러한 옵션에 대한 자세한 내용은 10 페이지의 "데이터 서비스 자원 관리를 위한 도구"를 참조하십시오.


이 절차를 수행하려면 다음 정보가 필요합니다.


주 -

클러스터의 한 구성 노드에서 다음 단계를 수행하십시오.


  1. 클러스터 구성 노드에서 수퍼유저가 되십시오.

  2. scrgadm 명령을 실행하여 Sybase ASE용 Sun Cluster HA에 대한 자원 유형을 등록하십시오.


    # scrgadm -a -t SUNW.sybase
    

    -a

    데이터 서비스에 대한 자원 유형을 추가합니다.

    -t SUNW.sybase

    데이터 서비스에 대하여 사전에 정의된 자원 유형을 지정합니다.

  3. 네트워크 및 응용프로그램 자원을 포함할 페일오버 자원 그룹을 만드십시오.

    다음과 같이 -h 옵션을 사용하여 데이터 서비스를 실행할 수 있는 노드 세트를 선택할 수 있습니다.


    # scrgadm -a -g resource-group [-h nodelist]
    -g resource-group

    자원 그룹의 이름을 지정합니다. 이 이름은 사용자가 선택할 수 있지만 클러스터 내의 자원 그룹에 대하여 고유해야 합니다.

    -h nodelist

    마스터가 될 수 있는 물리적 노드 이름이나 ID를 쉼표로 분리하여 표시하는 목록을 지정합니다. 이 목록에 나오는 순서에 따라 페일오버할 때 1차가 되는 노드 순서가 결정됩니다.


    주 -

    노드 목록의 순서를 지정하려면 -h 옵션을 사용하십시오. 클러스터에 있는 모든 노드가 마스터가 될 수 있으면 -h 옵션을 사용할 필요가 없습니다.


  4. 사용하는 모든 네트워크 자원이 이름 서비스 데이터베이스에 추가되었는지 확인하십시오.

    Sun Cluster를 설치할 때 이것을 확인했어야 합니다.


    주 -

    이름 서비스 조회 때문에 장애가 발생하지 않도록 하려면 모든 네트워크 자원이 서버 및 클라이언트의 /etc/hosts 파일에 있어야 합니다.


  5. 네트워크 자원을 페일오버 자원 그룹에 추가하십시오.


    # scrgadm -a -L -g resource-group -l logical-hostname [-n netiflist] 
    -l logical-hostname

    네트워크 자원을 지정합니다. 네트워크 자원은 클라이언트가 Sybase ASE용 Sun Cluster HA에 액세스하기 위해 사용하는 논리 호스트 이름 또는 공유 주소(IP 주소)입니다.

    [-n netiflist]

    각 노드의 NAFO 그룹을 나타내는 쉼표로 분리된 옵션 목록을 지정합니다. 자원 그룹의 nodelist에 있는 모든 노드가 netiflist에 있어야 합니다. 이 옵션을 지정하지 않을 경우, scrgadm(1M) 명령을 실행하면 nodelist의 각 노드에 대하여 hostname 목록에 표시된 하위 네트워크에서 네트워크 어댑터를 찾습니다. 예를 들어, -n nafo0@nodename, nafo0@nodename2와 같이 지정합니다.

  6. HAStoragePlus 자원 유형을 클러스터에 등록하십시오.


    # scrgadm -a -t SUNW.HAStoragePlus
    

  7. HAStoragePlus 유형의 자원 sybase-hastp-rs를 만드십시오.


    # scrgadm -a -j sybase-hastp-rs -g sybase-rg \
    -t SUNW.HAStoragePlus \
    -x GlobalDevicePaths=sybase-set1,/dev/global/dsk/dl \
    -x FilesystemMountPoints=/global/sybase-inst \
    -x AffinityOn=TRUE
    


    주 -

    AffinityOn은 TRUE로 설정되어야 하고 로컬 파일 시스템이 페일오버되려면 글로벌 디스크 그룹에 있어야 합니다.


  8. 하나의 클러스터 노드에서 scrgadm 명령을 실행하여 다음 작업을 완료하고 자원 그룹 sybase-rg를 온라인 상태로 전환하십시오.

    • 자원 그룹을 관리되는 상태로 변경하십시오.

    • 자원 그룹을 온라인 상태로 전환하십시오.

    이 노드가 장치 그룹 sybase-set1 및 원시 장치 /dev/global/dsk/d1에 대한 1차 노드가 됩니다. /global/sybase-inst와 같은 파일 시스템과 연결된 장치 그룹도 이 노드에 1차를 만듭니다.


    # scrgadm -Z -g sybase-rg
    

  9. 페일오버 자원 그룹에 Sybase ASE 응용프로그램 자원을 만드십시오.


    # scrgadm -a -j resource -g resource-group \
    -t SUNW.sybase \ 
    -x Environment_File=environment-file-path \
    -x Adaptive_Server_Name=adaptive-server-name \
    -x Backup_Server_Name=backup-server-name \
    -x Text_Server_Name=text-server-name \
    -x Monitor_Server_Name=monitor-server-name \
    -x Adaptive_Server_Log_File=log-file-path \
    -x Stop_File=stop-file-path \
    -x Connect_string=user/passwd \
    -y resource_dependencies=storageplus-resource
    

    -j resource

    추가할 자원의 이름을 지정합니다.

    -g resource-group

    RGM이 자원을 포함시킬 자원 그룹의 이름을 지정합니다.

    -t SUNW.sybase

    추가할 자원 유형을 지정합니다.

    -x Environment_File=environment-file

    환경 파일의 이름을 설정합니다.

    -x Adaptive_Server_Name=adaptive-server-name

    유사 서버의 이름을 설정합니다.

    -x Backup_Server_Name=backup-server-name

    백업 서버의 이름을 설정합니다.

    -x Text_Server_Name=text-server-name

    텍스트 서버의 이름을 설정합니다.

    -x Monitor_Server_Name=monitor-server-name

    모니터 서버의 이름을 설정합니다.

    -x Adaptive_Server_Log_File=monitor-server-name

    유사 서버에 대한 로그 파일 경로를 설정합니다.

    -x Stop_File=stop-file-path

    중지 파일 경로를 설정합니다.

    -x Connect_string=user/passwd

    결함 모니터가 데이터베이스에 연결하기 위해 사용하는 사용자와 암호를 지정합니다.

    기본값을 갖는 확장 등록 정보는 지정하지 않아도 됩니다. 자세한 내용은 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide에 있는 "Sybase ASE용 Sun Cluster HA 확장 등록 정보 구성"을 참조하십시오.

  10. scswitch(1M) 명령을 실행하여 다음 작업을 완료하십시오.

    • 자원 및 결함 모니터링을 활성화하십시오.


    # scswitch -Z -g resource-group
    
    .

여기서 수행할 작업

Sybase ASE용 Sun Cluster HA를 등록하고 구성한 후에는 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide에 있는 "Sybase ASE용 Sun Cluster HA 설치를 확인하는 방법"으로 이동하십시오.

Sun Cluster 데이터 서비스 구성 방법

다음과 같은 내용이 이번 업데이트 릴리스와 이후의 모든 업데이트에 적용됩니다.

응용프로그램 바이너리의 위치 결정(5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

클러스터 파일 시스템 구성 계획(5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

자원 유형 HAStoragePlus를 사용하면 페일오버 기능이 구성된 Sun Cluster 환경에서 가용성이 높은 로컬 파일 시스템을 사용할 수 있습니다. 이 자원 유형은 Sun Cluster 3.0 5/02 업데이트에서 지원됩니다. HAStoragePlus 자원 유형을 설정하는 방법은 "가용성이 높은 로컬 파일 시스템 만들기"를 참조하십시오.

클러스터 파일 시스템을 만드는 방법은 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서의 계획 단원을 참조하십시오.

자원 그룹과 디스크 장치 그룹 사이의 관계

다음과 같은 내용이 이번 업데이트 릴리스와 이후의 모든 릴리스에 적용됩니다.

HAStorage 및 HAStoragePlus 자원 유형(5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다. 자원 유형 HAStorage 및 HAStoragePlus를 사용하면 다음과 같은 옵션을 구성할 수 있습니다.

또한, HAStoragePlus 자원은 마운트되지 않은 상태의 클러스터 파일 시스템이 발견되면 마운트할 수 있습니다. 자세한 내용은 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide에 있는 "클러스터 파일 시스템 구성 계획"을 참조하십시오.


주 -

HAStorage 또는 HAStoragePlus 자원이 온라인 상태일 때 장치 그룹이 다른 노드로 전환되면 AffinityOn 설정이 적용되지 않고 자원 그룹이 장치 그룹에 따라 전환되지 않습니다. 반면에 자원 그룹이 다른 노드로 전환될 경우에는 True로 설정된 AffinityOn 설정이 적용되어 장치 그룹이 자원 그룹을 따라 새 노드로 전환됩니다.


권장 사항(5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

데이터 서비스 자원 그룹 내에 HAStorage와 HAStoragePlus 중 어느 자원을 만들 것인지 결정하려면 다음 기준에 따라 선택하십시오.

자세한 권장 사항은 이 책에 있는 데이터 서비스에 대한 각 단원을 참조하십시오.

디스크 장치 그룹과 자원 그룹 사이의 관계에 대한 내용은 "자원 그룹과 디스크 장치 그룹 사이의 시작 동기화"를 참조하십시오. SUNW.HAStorage(5) 및 SUNW.HAStoragePlus(5) 설명서 페이지에 자세한 내용이 있습니다.

VxFS와 같은 파일 시스템을 로컬 모드로 마운트하는 절차는 "가용성이 높은 로컬 파일 시스템 만들기"를 참조하십시오. SUNW.HAStoragePlus 설명서 페이지에 자세한 내용이 있습니다.

중요하지 않은 자원 그룹을 오프로드하여 노드 자원 비우기

다음과 같은 기능이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 추가되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

Prioritized Service Management(RGOffload)를 사용하면 클러스터가 중요한 데이터 서비스를 위해 자동으로 노드의 자원을 비웁니다. RGOffload는 중요한 페일오버 데이터 서비스를 시작하기 위해 중요하지 않은 확장 가능 또는 페일오버 데이터 서비스를 오프라인 상태로 전환해야 할 경우에 사용합니다. RGOffload는 중요하지 않은 데이터 서비스가 포함된 자원 그룹을 오프로드하는 데 사용됩니다.


주 -

중요한 데이터 서비스는 페일오버 데이터 서비스이어야 합니다. 오프로드할 데이터 서비스는 페일오버 데이터 서비스일 수도 있고 확장 가능 데이터 서비스일 수도 있습니다.


RGOffload 자원을 설정하는 방법(5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

  1. 클러스터 구성 노드에서 수퍼유저가 되십시오.

  2. RGOffload 자원 유형이 등록되었는지 확인하십시오.

    다음 명령을 실행하면 자원 유형 목록이 인쇄됩니다.


    # scrgadm -p|egrep SUNW.RGOffload
    

  3. 필요하면 자원 유형을 등록하십시오.


    # scrgadm -a -t SUNW.RGOffload
    
    .

  4. RGOffload 자원을 사용하여 오프로드할 각 자원 그룹에서 Desired_primaries를 0으로 설정하십시오.


    # scrgadm -c -g offload-rg -y Desired_primaries=0
    

  5. 중요한 페일오버 자원 그룹에 RGOffload 자원을 추가하고 확장 등록 정보를 설정하십시오.


    Caution - Caution -

    하나의 자원 그룹을 자원 두 개 이상의 rg_to_offload 목록에 포함시키지 마십시오. 하나의 자원 그룹을 여러 개의 rg_to_offload 목록에 포함시키면 자원 그룹이 온라인과 오프라인 상태를 반복하여 전환됩니다.


    확장 등록 정보에 대한 설명은 "RGOffload 확장 등록 정보 구성(5/02)"을 참조하십시오.


    # scrgadm -aj rgoffload-resource -t SUNW.RGOffload -g critical-rg \
    -x rg_to_offload=offload-rg-1, offload-rg-2, ... \
    -x continue_to_offload=TRUE -x max_offload_retry=15
    


    주 -

    여기서 rg_to_offload 이외의 확장 등록 정보에는 기본값이 표시되어 있습니다. rg_to_offload는 서로 의존 관계가 없는 자원 그룹을 쉼표로 분리하여 표시한 목록입니다. RGOffload 자원을 추가할 자원 그룹은 이 목록에 포함할 수 없습니다.


  6. RGOffload 자원을 활성화하십시오.


    # scswitch -ej rgoffload-resource
    

  7. RGOffload 자원에 대한 중요한 페일오버 자원의 의존 관계를 설정하십시오.


    # scrgadm -c -j critical-resource \
    -y Resource_dependencies=rgoffload-resource
    

    Resource_dependencies_weak를 사용할 수도 있습니다. RGOffload 자원 유형에 대하여 Resource_dependencies_weak를 사용하면 offload-rg의 오프로드 중에 오류가 발생해도 중요한 페일오버 자원을 시작할 수 있습니다.

  8. 오프로드할 자원 그룹을 온라인으로 전환하십시오.


    # scswitch -z -g offload-rg, offload-rg-2, ... -h nodelist
    

    중요한 자원 그룹이 오프라인 상태인 모든 노드에서 자원 그룹이 온라인 상태를 유지합니다. 결함 모니터가 중요한 자원 그룹이 온라인 상태인 노드에서 자원 그룹을 실행하지 못하게 합니다.

    오프로드할 자원 그룹에 대한 Desired_primaries가 0으로 설정되기 때문에(단계 4 참조), -Z 옵션을 사용해도 이 자원 그룹이 온라인으로 전환되지 않습니다.

  9. 중요한 페일오버 자원 그룹이 온라인 상태가 아니면 온라인 상태로 전환하십시오.


    # scswitch -Z -g critical-rg
    

예: RGOffload 자원 구성

이 예에서는 RGOffload 자원(rgofl), RGOffload 자원을 포함하는 중요한 자원 그룹(oracle_rg), 중요한 자원 그룹이 온라인으로 전환될 때 오프로드되는 확장 가능 자원 그룹(IWS-SC, IWS-SC-2) 등을 구성하는 방법을 설명합니다. 이 예에서 중요한 자원은 oracle-server-rs입니다.

이 예에서 oracle_rg, IWS-SCIWS-SC-2는 클러스터 triped의 어느 노드에서나 마스터할 수 있습니다:phys-triped-1, phys-triped-2, phys-triped-3.


[SUNW.RGOffload 자원 유형이 등록되었는지 확인하십시오.]
# scrgadm -p|egrep SUNW.RGOffload
 
[필요하면 자원 유형을 등록하십시오.]
# scrgadm -a -t SUNW.RGOffload
 
[RGOffload 자원에 의해 오프로드될 각 자원 그룹에서 Desired_primaries를 0으로 설정하십시오.
]
# scrgadm -c -g IWS-SC-2 -y Desired_primaries=0
# scrgadm -c -g IWS-SC -y Desired_primaries=0
 
[RGOffload 자원을 중요한 자원 그룹에 추가하고 확장 등록 정보를 설정하십시오.]
# scrgadm -aj rgofl -t SUNW.RGOffload -g oracle_rg \
-x rg_to_offload=IWS-SC,IWS-SC-2 -x continue_to_offload=TRUE \
-x max_offload_retry=15
 
[RGOffload 자원을 활성화하십시오.]
# scswitch -ej rgofl
 
[중요한 페일오버 자원이 의존하는 자원을 RGOffload 자원으로 설정하십시오.]
# scrgadm -c -j oracle-server-rs -y Resource_dependencies=rgofl
 
[모든 노드에서 오프로드할 자원 그룹을 온라인 상태로 전환하십시오.]
# scswitch -z -g IWS-SC,IWS-SC-2 -h phys-triped-1,phys-triped-2,phys-triped-3
 
[중요한 페일오버 자원 그룹이 온라인 상태가 아니면 온라인 상태로 전환하십시오.]
# scswitch -Z -g oracle_rg

RGOffload 확장 등록 정보 구성(5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

일반적으로 RGOffload 자원을 만들 때 scrgadm -x parameter=value 명령행을 사용하여 확장 등록 정보를 구성합니다. 모든 Sun Cluster 표준 등록 정보에 대한 자세한 설명은 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide에 있는 "표준 등록 정보"를 참조하십시오.

표 5-1은 RGOffload 자원에 대하여 구성할 수 있는 확장 등록 정보에 대한 설명입니다. 조정 가능 항목은 등록 정보를 변경할 수 있는 경우를 나타냅니다.

표 5-1 RGOffload 확장 등록 정보

이름/데이터 유형 

기본값 

rg_to_offload (문자열)

한 노드에서 중요한 페일오버 자원 그룹이 시작될 때 해당 노드에서 오프로드되어야 하는 자원 그룹을 쉼표로 구분하여 표시한 목록입니다. 서로 의존 관계가 있는 자원 그룹은 이 목록에 포함할 수 없습니다. 이 등록 정보는 기본값이 없기 때문에 설정해야 합니다. 

 

RGOffload는 rg_to_offload 확장 등록 정보에 설정된 자원 그룹 목록에서 의존 관계 루프를 확인하지 않습니다. 예를 들어, 자원 그룹 RG-B가 일정한 방식으로 RG-A에 의존하면 RG-ARG-Brg_to_offload에 포함할 수 없습니다.

 

기본값: 없음

조정 가능: 언제든지

continue_to_offload (부울) 

하나의 자원 그룹 오프로드에서 오류가 발생한 후에 rg_to_offload 목록에 있는 나머지 자원 그룹을 계속 오프로드할 것인지를 나타내는 부울 값.

 

이 등록 정보는 START 메소드에 의해서만 사용됩니다. 

 

기본값: True

조정 가능: 언제든지

max_offload_retry (정수)

클러스터 또는 자원 그룹 재구성으로 인해 장애가 발생한 경우에 시작할 때 자원 그룹 오프로드를 시도하는 횟수. 연속되는 재시도 사이에 10초 동안의 시간 간격이 있습니다. 

 

(오프로드할 자원 그룹 수 x max_offload_retry x 10초) 값이 RGOffload 자원에 대한 Start_timeout 값보다 작게 max_offload_retry 값을 설정하십시오. 이 값이 Start_timeout 값보다 크거나 비슷하면 최대 오프로드 시도 횟수가 완료되기 전에 RGOffload 자원에 대한 START 메소드의 시간이 초과됩니다.

 

이 등록 정보는 START 메소드에 의해서만 사용됩니다. 

 

기본값: 15

조정 가능: 언제든지

결함 모니터(5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

RGOffload 자원에 대한 결함 모니터 프로브는 중요한 자원을 마스터하는 노드에서 rg_to_offload 확장 등록 정보에 지정된 자원 그룹을 오프라인 상태로 유지하기 위해 사용합니다. 결함 모니터는 각 프로브 주기 동안 중요한 자원을 마스터하는 노드에서 오프로드할 자원 그룹(offload-rg)이 오프라인 상태인지 확인합니다. 중요한 자원을 마스터하는 노드에서 offload-rg가 온라인 상태이면 중요한 자원을 마스터하는 노드 이외의 노드에서 결함 모니터가 offload-rg를 시작하고 중요한 자원을 마스터하는 노드에서는 offload-rg를 오프라인 상태로 전환합니다.

offload-rg에 대한 desired_primaries 값이 0으로 설정되기 때문에 나중에 사용할 수 있게 되는 노드에서는 오프로드된 자원 그룹이 다시 시작되지 않습니다. 따라서 RGOffload 결함 모니터가 중요한 자원을 마스터하는 노드에서는 offload-rg를 오프라인으로 유지하면서 maximum_primaries 제한값에 도달할 때까지 최대로 많은 1차 노드에서 offload-rg를 시작합니다.

RGOffload는 오프로드된 자원 그룹이 유지 보수 상태나 관리되지 않는 상태만 아니면 모두 시작합니다. 자원 그룹을 관리되지 않는 상태로 전환하려면 scswitch 명령을 사용하십시오.


# scswitch -u -g resourcegroup

모든 Thorough_probe_interval 간격 후에 결함 모니터 프로브 주기가 호출됩니다.

iPlanet Directory Server 설치 및 구성

다음과 같은 내용이 이번 업데이트 릴리스와 이후의 모든 업데이트에 적용됩니다.

Solaris 9용 iPlanet Directory Server를 설치하는 방법(5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

Solaris 9 운영 환경에는 iPlanet Directory Server가 포함되어 있습니다. Solaris 9을 사용하는 경우에는 Solaris 9 CD-ROM을 사용하여 iPlanet Directory Server를 설치하십시오.

  1. iPlanet Directory Server 패키지가 설치되지 않은 노드가 있으면 클러스터의 모든 노드에 설치하십시오.

  2. 모든 디렉토리 서버를 유지할 클러스터 파일 시스템에 위치를 정하십시오(예: /global/nsldap).

    원하면 이 파일 시스템에 대한 디렉토리를 별도로 만들 수도 있습니다.

  3. 모든 노드에서 /var/ds5로부터 이 디렉토리로 연결하는 링크를 만드십시오. 노드에 /var/ds5가 이미 있으면 제거하고 링크를 만드십시오.


    # rmdir /var/ds5
    # ln -s /global/nsldap /var/ds5
    
  4. 노드에서 일반적인 방법으로 디렉토리 서버를 설정하십시오.


    # directoryserver setup
    

    이 노드에는 자동으로 /usr/iplanet/ds5/slapd-instance-name 링크가 만들어집니다. 다른 모든 노드에는 직접 링크를 만드십시오.

    다음 예에서 dixon-1은 디렉토리 서버의 이름입니다.


    # ln -s /var/ds5/slapd-dixon-1 /usr/iplanet/ds5/slapd-dixon-1
    
  5. 설치 명령을 실행하고 서버 이름을 묻는 메시지가 나오면 논리 호스트 이름을 입력하십시오.

    페일오버 기능이 제대로 작동하려면 이 단계가 반드시 필요합니다.


    주 -

    지정하는 논리 호스트가 directoryserver setup 명령을 실행하는 노드에서 온라인 상태이어야 합니다. iPlanet Directory Server 설치가 끝나면 iPlanet Directory Server가 자동으로 시작되는데 이 노드에서 논리 호스트가 오프라인 상태이면 실행할 수 없기 때문에 온라인 상태이어야 합니다.


  6. 논리 호스트 이름을 묻는 메시지가 나오면 컴퓨터 이름이 속한 도메인과 함께 논리 호스트 이름을 선택하십시오. 예를 들어, phys-schost-1.example.com과 같이 지정하십시오.

    완전한 서버 이름을 묻는 메시지가 나오면 네트워크 자원과 연결된 호스트 이름을 입력하십시오.

  7. iPlanet Directory Server 관리 서버로 사용할 IP 주소를 묻는 메시지가 나오면 directoryserver setup 명령을 실행하는 클러스터 노드의 IP 주소를 지정하십시오.

설치할 때 iPlanet Directory Server 관리 서버를 설정합니다. 이 서버에 대하여 지정하는 IP 주소는 페일오버할 논리 호스트 이름이 아닌 물리적 클러스터 노드의 IP 주소이어야 합니다.

여기서 수행할 작업

네트워크 자원을 등록하고 활성화한 후에는 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide에 있는 "iPlanet Directory Server를 구성하는 방법"으로 이동하십시오.

iPlanet Web Server 설치 및 구성

다음과 같은 내용이 이번 업데이트 릴리스와 이후의 모든 업데이트에 적용됩니다.

iPlanet Web Server를 구성하는 방법(5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

이 절차에서는 iPlanet Web Server 인스턴스를 가용성이 높은 서버로 구성하는 방법을 설명합니다. 이 절차를 실행할 때는 NetscapeTM 브라우저를 사용하십시오.

이 절차를 수행하기 전에 다음 사항을 참고하십시오.

  1. 모든 노드의 로컬 디스크에 iPlanet Web Server가 관리하는 로그, 오류 파일 및 PID 파일을 저장할 디렉토리를 만드십시오.

    iPlanet 서버가 제대로 작동하려면 클러스터 파일 시스템이 아닌 클러스터의 각 노드에 이 파일이 있어야 합니다.

    클러스터의 모든 노드에서 동일한 로컬 디스크 위치를 선택하십시오. mkdir -p 명령을 사용하여 디렉토리를 만드십시오. nobody를 이 디렉토리 소유자로 만드십시오.

    다음은 이 단계를 완료하는 방법을 설명하는 예입니다.


    phys-schost-1# mkdir -p /var/pathname/http-instance/logs/
    

    주 -

    오류 로그 파일과 PID 파일이 커질 것 같으면 이 파일이 /var 디렉토리 공간을 많이 차지할 수 있으므로 이 디렉토리에 넣지 마십시오. 대신 큰 파일을 처리할 수 있을 만큼 여유 공간이 있는 파티션에 디렉토리를 만드십시오.


  2. 관리 워크스테이션이나 클러스터 노드에서 Netscape 브라우저를 실행하십시오.

  3. 클러스터 노드 중 하나에서 https-admserv 디렉토리로 이동하여 iPlanet 관리 서버를 실행하십시오.


    # cd https-admserv
    # ./start
    

  4. Netscape 브라우저에서 iPlanet 관리 서버의 URL을 입력하십시오.

    URL은 iPlanet 서버 설치 절차의 단계 4에서 지정한 물리적 호스트 이름과 포트 번호로 구성됩니다. 예를 들어, n1.example.com:8888과 같이 입력하십시오. 이 절차의 단계 2를 수행하면 ./start 명령을 실행할 때 관리 URL이 표시됩니다.

    사용자 ID와 암호를 묻는 메시지가 나오면 서버 설치 절차의 단계 6에서 지정한 ID와 암호를 사용하여 iPlanet 관리 서버 인터페이스로 로그인하십시오.

  5. 지정한 값을 직접 변경할 수 있는 관리 서버를 사용하여 다음 작업을 수행하십시오.

    • 서버 이름이 정확한지 확인하십시오.

    • 서버 사용자가 수퍼유저로 설정되어 있는지 확인하십시오.

    • 바인드 주소 필드를 다음 중 한 가지로 변경하십시오.

      • DNS를 이름 서비스로 사용하는 경우에는 논리 호스트 이름이나 공유 주소

      • NIS를 이름 서비스로 사용하는 경우에는 논리 호스트 이름 또는 공유 주소와 연결된 IP 주소

    • 이 단락의 단계 1에서 만든 디렉토리에 맞게 ErrorLog, PidLog 및 Access Log 항목을 변경하십시오.

    • 변경 사항을 저장하십시오.

자원 그룹 등록 정보

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

자원 그룹 등록 정보 목록에 새로운 자원 그룹 등록 정보 Auto_start_on_new_cluster가 추가되었습니다.

표 5-2 자원 그룹 등록 정보

등록 정보 이름 

설명 

Auto_start_on_new_cluster (부울) 

이 등록 정보를 사용하면 새 클러스터를 구성할 때 자원 그룹의 자동 시작을 비활성화할 수 있습니다.  

 

기본값은 TRUE입니다. TRUE로 설정되면 클러스터가 다시 부트될 때 Desired_primaries가 되도록 자원 그룹 관리자가 자동으로 자원 그룹을 시작합니다. FALSE로 설정되면 클러스터가 다시 부트될 때 자원 그룹이 자동으로 다시 시작되지 않습니다.

 

범주: 선택 사항

기본값: True

조정 가능: 언제든지