本章提供新加入 Sun Cluster 3.0 5/02 更新版次中的資料服務安裝與組態設定資訊。此項資訊為 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide 的增補。 有關新的叢集框架安裝資料,請參閱 第 4章, 安裝。
本章包含下列主題的新資訊。
下述資訊適用於本更新版次以及所有後續的更新版次。
更新的 Sun Cluster HA for SAP 一章中,加入使用 SAP 當作可延伸資料服務的程序。請參閱 附錄 B, 安裝與配置 Sun Cluster HA for SAP。
更新的 Sun Cluster HA for SAP 一章中,包含如何設定鎖定檔案的程序。請參閱 "設立鎖定檔案"。
下列特性已在 Sun Cluster 3.0 5/02 更新版次中介紹過,且適用於本更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。
當叢集開機或服務因為故障而轉移到其他節點時,可能需要一些時間才能使用全域裝置。但是對於需要用到這些全域裝置與叢集檔案系統的資料服務而言,卻能在前兩者上線運作之前便執行自己的 START 方法。此時會導致 START 方法逾時,以致於必須重設資料服務所使用之資源群組的狀態,並手動重新啟動該資料服務。HAStorage 與 HAStoragePlus 兩種資料類型會監視全域裝置與叢集檔案系統,並要求同一個資源群組中其他資源的 START 方法持續等待,直到全域裝置與叢集檔案系統上線運作為止。(至於要使用哪一種資源類型,請參閱 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide 中的「建議」。)為了避免額外增加的管理工作,只要是其資料服務會用到全域裝置或叢集檔案系統的資料群組,均加裝 HAStorage 或 HAStoragePlus。
關於建立 HAStoragePlus 資源類型的方式,請參閱 "如何設定 HAStoragePlus 資源類型 (5/02)"。
下列特性已在 Sun Cluster 3.0 5/02 更新版次中介紹過,且適用於本更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。
HAStoragePlus 資源類型可在 Sun Cluster 環境中讓本機檔案系統的可用性變高。本機檔案系統的分割區必須位於已啟動類似切換保護移轉的全域磁碟群組中,且 Sun Cluster 環境必須配置成故障轉移。此舉可讓使用者從任何直接連接至多重主機磁碟的主機,存取多重主機磁碟上的任何檔案系統。(HAStoragePlus 無法讓 root 檔案系統的可用性變高。)
強烈建議您針對某些密集的 I/O 資料服務採用高可用性的本機檔案系統,且 HAStoragePlus 資源類型的配置方式也已經加入這些資料服務的註冊與組態設定程序中。關於如何為這些資料服務設定 HAStoragePlus 資源類型的程序,請參閱 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide 中的以下幾節。
關於為其他資料服務設定 HAStoragePlus 資源類型的程序,請參閱 "如何設定 HAStoragePlus 資源類型 (5/02)"。
下列變更已在 Sun Cluster 3.0 5/02 更新版次中介紹過,且適用於本更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。
HAStoragePlus 資源類型已在 Sun Cluster 3.0 5/02 中介紹過。這項項全新的資源類型其功能與 HAStorage 相同,可同步化資源群組以及磁碟裝置群組兩者之間的啟動。不過 HAStoragePlus 資源類型還有另外一項功能,它可讓本機檔案系統具備高可用性。(關於如何將本機檔案系統可用性變高的相關背景資訊,請參閱 "啟動高可用性的本機檔案系統"。)若要同時使用這兩項功能,請安裝 HAStoragePlus 資源類型。
若要安裝 HAStoragePlus,本機檔案系統的分割區必須位於已啟動類似切換保護移轉的全域磁碟群組中,且 Sun Cluster 環境也必須配置成故障轉移。
以下範例利用簡單的 NFS 服務,將本機裝載之目錄 /global/local-fs/nfs/export/home 中的主目錄資料開放給外界共用。此範例的假設狀況如下:
以 /global/local-fs/nfs 作為裝載點,裝載 Sun Cluster 全域裝置分割區上的 UFS 本機檔案系統。
/global/local-fs/nfs 檔案系統的/etc/vfstab 項目應標明此為本機檔案系統,且裝載開機旗標為否。
PathPrefix 目錄 (HA-NFS 用來維護管理與狀態資訊的目錄) 位於要裝載之檔案系統的根目錄內 (例如 /global/local-fs/nfs)。
成為叢集成員的超級使用者。
檢查此資源類型是否已經註冊。
以下指令會列出已經註冊的資源類型。
# scrgadm -p | egrep Type |
必要時,請註冊此資源類型。
# scrgadm -a -t SUNW.nfs |
建立故障轉移資源群組 nfs-r。
# scrgadm -a -g nfs-rg -y PathPrefix=/global/local-fs/nfs |
建立 SUNW.LogicalHostname 類型的邏輯主機資源。
# scrgadm -a -j nfs-lh-rs -g nfs-rg -L -l log-nfs |
以此叢集註冊 HAStoragePlus 資源類型。
# scrgadm -a -t SUNW.HAStoragePlus |
建立 SUNW.HAStoragePlus 類型的 nfs-hastp-rs 資源。
# scrgadm -a -j nfs-hastp-rs -g nfs-rg -t SUNW.HAStoragePlus \ -x FilesystemMountPoints=/global/local-fs/nfs \ -x AffinityOn=TRUE |
在某個叢集節點上讓 nfs-rg 資源群組上線運作。
之後這個節點就是 /global/local-fs/nfs 檔案系統底下,全域裝置分割區的主要節點。檔案系統 /global/local-fs/nfs 也會以本機裝載的方式裝載到此節點上。
# scswitch -Z -g nfs-rg |
以叢集註冊 SUNW.NFS 資源類型。建立 SUNW.nfs 類型的 nfs-rs 資源,並設定與 nfs-hastp-rs 資源的相依關係。
dfstab.nfs-rs 會出現在 /global/local-fs/nfs/SUNW.nfs 中。
# scrgadm -a -t SUNW.nfs # scrgadm -a -g nfs-rg -j nfs-rs -t SUNW.nfs \ -y Resource_dependencies=nfs-hastp-rs |
nfs-hastp-rs 資源必須先上線運作,您才能設定 nfs 資源與它的相依關係。
讓 nfs-rs 資源上線運作。
# scswitch -Z -g nfs-rg |
之後每當此項服務移轉到新的節點上時,/global/local-fs/nfs 的主要 I/O 路徑還是會一直保持上線狀態,並與 NFS 伺服器搭配運作。NFS 伺服器啟動之前,/global/local-fs/nfs 檔案系統就會裝載到本機上。
下列變更已在 Sun Cluster 3.0 5/02 更新版次中介紹過,且適用於本更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。將 Sun Cluster HA for Oracle 註冊與配置為故障轉移資料服務。您必須註冊此資料服務,並配置資源群組與 Oracle 伺服器以及接收器的資源。關於資源與資源群組的詳細資訊,請參閱 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide 以及 Sun Cluster 3.0 12/01 概念 文件中的「規劃 Sun Cluster 資料服務」。
下列變更已在 Sun Cluster 3.0 5/02 更新版次中介紹過,且適用於 Sun Cluster 3.0 軟體本更新版次以及後續所有的更新版次。此程序說明如何使用 scrgadm 指令註冊與配置 Sun Cluster HA for Oracle。
此程序包含建立 HAStoragePlus 資源類型。此項資源類型可讓 HAStoragePlus 與資料服務兩者的動作同步,並提供高可用性的本機檔案系統。由於 Sun Cluster HA for Oracle 對於硬碟的使用量很大,因此應該要配置 HAStoragePlus 資源類型。
相關背景資訊,請參閱 SUNW.HAStoragePlus(5) 線上援助頁,以及第 5 頁上的「資源群組與磁碟裝置群組之間的關係」。
利用其他選項也可以註冊與配置此資料服務。關於這些選項的詳細說明,請參閱第 10 頁上的「資料服務資源管理工具」。
您必須擁有以下資訊,才能開始執行此程序。
控制資料服務的叢集節點名稱。
用戶端存取資料服務所使用的網路資源。一般而言,安裝叢集時會設定此 IP 位址。關於網路資源的詳細資訊,請參閱 Sun Cluster 3.0 12/01 概念 文件。
針對您打算要配置的資源,找出 Oracle 應用程式二進位檔案的路徑。
在每一個叢集成員上執行此程序。
成為叢集成員的超級使用者。
執行 scrgadm 指令註冊此資料服務的資源類型。
針對 Sun Cluster HA for Oracle,必須註冊如下所示的兩種資料類型,SUNW.oracle_server 與 SUNW.oracle_listener。
# scrgadm -a -t SUNW.oracle_server # scrgadm -a -t SUNW.oracle_listener |
新增此資料服務資源類型。
指定資料服務的預定資源類型。
建立一個故障轉移資源群組,以保留網路與應用程式資源。
您可以選擇性地選取能以 -h 選項執行資料服務的節點組,如下所示。
# scrgadm -a -g resource-group [-h nodelist] |
指定資源群組的名稱。您可以自由命名,但同一個叢集中不可以有重複的資源群組名稱。
指定一份選擇性的清單,其中須以逗號分隔實際節點名稱或代表潛在主要節點的 ID。其先後順序即為發生故障轉移時,這些節點成為主要節點的順序。
使用 -h 選項指定節點清單的順序。如果叢集中的所有節點都是潛在的主要節點,則不需使用 -h 選項。
檢查您使用的所有網路資源都已經加入您的名稱服務資料庫內。
在安裝 Sun Cluster 時應該就已經進行過這項檢查工作。
請確認伺服器與用戶端的 /etc/hosts 檔案中必須列有全部的網路資源,以避免受到名稱服務查詢的影響而導致故障。
新增網路資源到故障轉移資源群組中。
# scrgadm -a -L -g resource-group -l logical-hostname [-n netiflist] |
指定網路資源。網路資源即用戶端存取 Sun Cluster HA for Oracle 時所使用的邏輯主機名稱或共用位址 (IP 位址)。
指定能辨認每個節點上的 NAFO 群組且各項目以逗號隔開的清單。netiflist 中必須列出此資源群組 nodelist 中的所有節點。如果未指定此選項,scrgadm(1M) 便會針對 nodelist 中的每個節點,在 hostname 清單所表示的子網路上嘗試尋找網路配接卡。例如,-n nafo0@nodename,nafo0@nodename2。
以叢集註冊 HAStoragePlus 資源類型。
# scrgadm -a -t SUNW.HAStoragePlus |
建立 HAStoragePlus 類型的 oracle-hastp-rs 資源。
# scrgadm -a -j oracle-hastp-rs -g oracle-rg -t SUNW.HAStoragePlus \ [If your database is on a raw device, specify the global device path.] -x GlobalDevicePaths=ora-set1,/dev/global/dsk/dl \ [If your database in on a Cluster File Service, specify the global filesystem mount points.] -x FilesystemMountPoints=/global/ora-inst,/global/ora-data/logs \ [If your database is on a highly available local file system, secify the local filesystem mount points.] -x FilesystemMountPoints=/local/ora-data \ [Set AffinityOn to true.] -x AffinityOn=TRUE |
AffinityOn 必須設成 TRUE,且本機檔案系統必須位於全域磁碟群組上,以便進行故障轉移。
執行 scrgadm 指令完成以下動作,並在某個叢集節點上讓 oracle-rg 資源群組上線運作。
將此資源群組轉移至可管理的狀態。
讓資源群組上線運作。
此節點會成為 ora-set1 裝置群組與 /dev/global/dsk/d1 原始裝置的主要節點。與檔案系統相關的裝置群組,例如 /global/ora-inst 與/global/ora-data/logs,也都會在此節點上成為主要節點。
# scrgadm -Z -g oracle-rg |
在故障轉移資源群組中建立 Oracle 應用程式資源。
# scrgadm -a -j resource -g resource-group \ -t SUNW.oracle_server \ -x Connect_string=user/passwd \ -x ORACLE_SID=instance \ -x ORACLE_HOME=Oracle-home \ -x Alert_log_file=path-to-log \ -y resource_dependencies=storageplus-resource # scrgadm -a -j resource -g resource-group \ -t SUNW.oracle_listener \ -x LISTENER_NAME=listener \ -x ORACLE_HOME=Oracle-home \ -y resource_dependencies=storageplus-resource |
指定要加入的資料名稱。
指定要加入資源的資源群組名稱。
指定要加入的資源類型。
在 $ORACLE_HOME 底下設定伺服器訊息記錄檔的路徑。
指定錯誤監視器連接資料庫時使用的使用者與密碼。這些設定必須依照您在 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide 第 23 頁「如何設定 Oracle 資料庫許可權」中所設定的許可權一致。如果您使用 Solaris 授權,請輸入斜線 (/) 代替使用者名稱與密碼。
設定 Oracle 系統識別碼。
設定 Oracle 接收器實例的名稱。此名稱必須符合 listener.ora 中的對應項目。
設定到 Oracle 主目錄的路徑。
當 Oracle 伺服器的某項資源故障且導致重新啟動時,整個資源群組都會重新啟動。在此資源群組內的其他資源 (例如 Apache 或 DNS) 也都會一起跟著重新啟動,即使它們並未發生任何故障。若要避免其他資源隨著 Oracle 伺服器資源一起重新啟動,請將其他資源放到另一個資源群組中。
或者您也可以額外多設定一些隸屬於 Oracle 資料服務的延伸屬性,以置換它們的預設值。請參閱 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide 中的「配置 Sun Cluster HA 的 Oracle 延伸屬性」,其中列有所有的延伸屬性。
下述範例說明如何在兩個節點的叢集上註冊 Sun Cluster HA for Oracle。
Cluster Information Node names: phys-schost-1, phys-schost-2 Logical Hostname: schost-1 Resource group: resource-group-1 (failover resource group) Oracle Resources: oracle-server-1, oracle-listener-1 Oracle Instances: ora-lsnr (listener), ora-srvr (server) (Add the failover resource group to contain all of the resources.) # scrgadm -a -g resource-group-1 (Add the logical hostname resource to the resource group.) # scrgadm -a -L -g resource-group-1 -l schost-1 (Register the Oracle resource types) # scrgadm -a -t SUNW.oracle_server # scrgadm -a -t SUNW.oracle_listener (Add the Oracle application resources to the resource group.) # scrgadm -a -j oracle-server-1 -g resource-group-1 \ -t SUNW.oracle_server -x ORACLE_HOME=/global/oracle \ -x Alert_log_file=/global/oracle/message-log \ -x ORACLE_SID=ora-srvr -x Connect_string=scott/tiger # scrgadm -a -j oracle-listener-1 -g resource-group-1 \ -t SUNW.oracle_listener -x ORACLE_HOME=/global/oracle \ -x LISTENER_NAME=ora-lsnr (Bring the resource group online.) # scswitch -Z -g resource-group-1 |
下列變更已在 Sun Cluster 3.0 5/02 更新版次中介紹過,並適用於此更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。請依照本節中的程序註冊與配置 Sun Cluster HA for Sybase ASE 資料服務。將 Sun Cluster HA for Sybase ASE 註冊且配置成具有故障轉移功能的資料服務。
下列變更已在 Sun Cluster 3.0 5/02 更新版次中介紹過,且適用於 Sun Cluster 3.0 軟體本更新版次以及後續所有的更新版次。此程序說明如何使用 scrgadm(1M) 指令註冊與配置 Sun Cluster HA for Sybase ASE。
本程序包含建立 HAStoragePlus 資源類型。此項資源類型可讓 HAStorage 與 Sun Cluster HA for Sybase ASE 兩者的動作同步,並提供高可用性的本機檔案系統。由於 Sun Cluster HA for Sybase ASE 對於硬碟的使用量很大,因此應該要配置 HAStoragePlus 資源類型。
關於 HAStoragePlus 資源類型的詳細資訊,請參閱 SUNW.HAStoragePlus(5) 線上援助頁以及第 5 頁上的「資源群組與磁碟裝置群組之間的關係」。
利用其他選項也可以註冊與配置此資料服務。關於這些選項的詳細說明,請參閱第 10 頁上的「資料服務資源管理工具」。
控制資料服務的叢集節點名稱。
用戶端存取資料服務所使用的網路資源。一般都是在安裝叢集時,一併配置 IP 位址。詳細資訊請參閱Sun Cluster 3.0 12/01 軟體安裝手冊 中,關於規劃 Sun Cluster 環境以及安裝 Solaris 作業環境的章節。
Sybase ASE 應用程式的安裝路徑。
在叢集中的某個成員上進行以下步驟。
成為叢集成員的超級使用者。
執行 scrgadm 指令註冊 Sun Cluster HA for Sybase ASE 的資源類型。
# scrgadm -a -t SUNW.sybase |
新增此資料服務的資源類型。
指定資料服務預定的資源類型。
建立一個故障轉移資源群組,以保留網路與應用程式資源。
您可以選擇性地選取能以 -h 選項執行資料服務的節點組,如下所示。
# scrgadm -a -g resource-group [-h nodelist] |
指定資源群組的名稱。您可以自由命名,但同一個叢集中不可以有重複的資源群組名稱。
指定一份選擇性的清單,其中須以逗號分隔實際節點名稱或代表潛在主要節點的 ID。其先後順序即為發生故障轉移時,這些節點成為主要節點的順序。
使用 -h 選項指定節點清單的順序。如果叢集中的所有節點都是潛在的主要節點,則不需使用 -h 選項。
檢查您使用的所有網路資源都已經加入您的名稱服務資料庫內。
在安裝 Sun Cluster 時應該就已經進行過這項檢查工作。
請確認伺服器與用戶端的 /etc/hosts 檔案中必須列有全部的網路資源,以避免受到名稱服務查詢的影響而導致故障。
新增網路資源到故障轉移資源群組中。
# scrgadm -a -L -g resource-group -l logical-hostname [-n netiflist] |
指定網路資源。網路資源即用戶端存取 Sun Cluster HA for Oracle 時所使用的邏輯主機名稱或共用位址 (IP 位址)。
指定能辨認每個節點上的 NAFO 群組且各項目以逗號隔開的清單。netiflist 中必須列出此資源群組 nodelist 中的所有節點。如果未指定此選項,scrgadm(1M) 便會針對 nodelist 中的每個節點,在 hostname 清單所表示的子網路上嘗試尋找網路配接卡。例如,-n nafo0@nodename,nafo0@nodename2。
以叢集註冊 HAStoragePlus 資源類型。
# scrgadm -a -t SUNW.HAStoragePlus |
建立 HAStoragePlus 類型的 sybase-hastp-rs 資源。
# scrgadm -a -j sybase-hastp-rs -g sybase-rg \ -t SUNW.HAStoragePlus \ -x GlobalDevicePaths=sybase-set1,/dev/global/dsk/dl \ -x FilesystemMountPoints=/global/sybase-inst \ -x AffinityOn=TRUE |
AffinityOn 必須設成 TRUE,且本機檔案系統必須位於全域磁碟群組上,以便進行故障轉移。
執行 scrgadm 指令完成以下動作,並在某個叢集節點上讓 sybase-rg 資源群組上線運作。
將此資源群組轉移至可管理的狀態。
讓資源群組上線運作
此節點會成為 sybase-set1 裝置群組與 /dev/global/dsk/d1 原始裝置的主要節點。與檔案系統相關的裝置群組,例如 /global/sybase-inst,也都會在此節點上成為主要節點。
# scrgadm -Z -g sybase-rg |
在故障轉移資源群組中建立 Syabse ASE 應用程式資源。
# scrgadm -a -j resource -g resource-group \ -t SUNW.sybase \ -x Environment_File=environment-file-path \ -x Adaptive_Server_Name=adaptive-server-name \ -x Backup_Server_Name=backup-server-name \ -x Text_Server_Name=text-server-name \ -x Monitor_Server_Name=monitor-server-name \ -x Adaptive_Server_Log_File=log-file-path \ -x Stop_File=stop-file-path \ -x Connect_string=user/passwd \ -y resource_dependencies=storageplus-resource |
指定要加入的資源名稱。
指定 RGM 要在其中放入資源的資源群組名稱。
指定要加入的資源類型。
設定環境檔案的名稱。
設定適用的伺服器名稱。
設定備份伺服器的名稱。
設定文字伺服器的名稱。
設定監視伺服器的名稱。
設定適用的伺服器其記錄檔的路徑。
設定停止檔案的路徑。
指定錯誤監視器連接資料庫時使用的使用者與密碼。
具有預設值的延伸屬性不需要加以指定。詳細資訊請參閱 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide 中的「配置 Sun Cluster HA 的 Sybase ASE 延伸屬性」。
啟用此資源與故障監視功能。
# scswitch -Z -g resource-group |
註冊並配置好 Sun Cluster HA for Sybase ASE 之後,請至 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide 中的「如何檢查 Sun Cluster HA 的 Sybase ASE 安裝」。
下述資訊適用於本更新版次以及所有後續的更新版次。
下列變更已在 Sun Cluster 3.0 5/02 更新版次中介紹過,且適用於本更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。
高可用性的本機檔案系統 - 使用 HAStoragePlus 可將本機檔案系統整合到 Sun Cluster 環境內,使其具備高可用性。HAStoragePlus 提供額外的檔案系統功能例如,檢查、裝載以及卸載,可讓 Sun Cluster 在本機檔案系統上進行故障轉移。本機檔案系統必須位於已啟動切換保護移轉的全域磁碟群組中,才能進行故障轉移。
請參閱個別的資料服務章節或 "啟動高可用性的本機檔案系統",以取得如何使用 HAStoragePlus 資源類型的資訊。
下列變更已在 Sun Cluster 3.0 5/02 更新版次中介紹過,且適用於本更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。
HAStoragePlus 這種資源類型可讓您在已配置好具備故障轉移的 Sun Cluster 環境內,使用具有高可用性的本機檔案系統。Sun Cluster 3.0 5/02 支援此資源類型。關於設定 HAStoragePlus 資源類型的資訊,請參閱 "啟動高可用性的本機檔案系統"。
關於如何建立叢集檔案系統的資訊,請參閱 Sun Cluster 3.0 12/01 軟體安裝手冊 中的規劃章節。
下述資訊適用於本更新版次以及所有後續的版次。
下列變更已在 Sun Cluster 3.0 5/02 更新版次中介紹過,並適用於此更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版本。HAStorage 與 HAStoragePlus 這兩種資源類型可用來配置下列選項。
將含有 HAStorage 或 7HAStoragePlus 資源的相同資源群組中其他資源的 START 方法延後執行,直到磁碟裝置資源可以使用為止,藉此讓磁碟裝置與資源群組的開機順序一致。
將 AffinityOn 設為 True,強迫將資源群組與磁碟裝置群組放在同一個節點上,以提高硬碟用量大之資料服務的效能
此外,HAStoragePlus 還能將處於卸載狀態的任何叢集檔案系統裝載到系統上。詳細資訊請參閱 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide 中的「規劃叢集檔案系統配置」。
如果在 HAStorage 或 HAStoragePlus 資源為線上狀態時將裝置群組切換到另一個節點上,則 AffinityOn便無作用,且資源群組不會隨著裝置群組移轉。另外一方面,如果資源群組切換到另一個節點,則設定為 True 的 AffinityOn 會造成裝置群組隨著資源群組移轉到新節點上。
下列變更已在 Sun Cluster 3.0 5/02 更新版次中介紹過,且適用於本更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。
請先考慮清楚以下準則,再決定是否要在資料服務資源群組中建立 HAStorage 或 HAStoragePlus 資源。
決定要使用 HAStorage 或 HAStoragePlus。
如果您使用 Sun Cluster 3.0 12/01 版或更早版次的軟體,請使用 HAStorage。
如果您使用 Sun Cluster 3.0 5/02 版的軟體,請使用 HAStoragePlus。(如果您想將本機的任何檔案系統整合到已配置具有故障轉移功能的 Sun Cluster,則必須先升級到 Sun Cluster 3.0 5/02,並使用 HAStoragePlus 資源類型。詳細資訊請參閱 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide 中的「規劃叢集檔案系統配置」。
若資料服務資源群組的某個節點清單中,有部分節點並未直接與儲存體連接,則您必須在資源群組中配置 HAStorage 或 HAStoragePlus 資源,並將其他資料服務資源的相依關係設定為 HAStorage 或 HAStoragePlus 資源。此項條件可協調儲存體與資料服務的開機順序。
如果遇到硬碟用量非常大的資料服務,例如 Sun Cluster HA for Oracle 和 Sun Cluster HA for NFS,請務必執行下列動作。
將 HAStorage 或 HAStoragePlus 資源加入您的資料服務資源群組內。
將 HAStorage 或 HAStoragePlus 資源切換到上線狀態。
將您的資料服務資源設定成依靠 HAStorage 或 HAStoragePlus 資源。
將 AffinityOn 設定成 True。
當您執行這些動作時,資源群組與磁碟裝置群組位於同一個節點上。
如果您的資料服務磁碟使用量不是很大,例如只是在啟動的時候讀取其所有檔案 (如 Sun Cluster HA for DNS),則可以選擇要配置 HAStorage 或 HAStoragePlus 資源類型。
特殊建議請參閱本書內關於資料服務的各章。
關於磁碟裝置群組與資源群組之間關係的資訊,請參閱 "同步化資源群組與磁碟裝置群組的啟動"。SUNW.HAStorage(5) 與 SUNW.HAStoragePlus(5) 線上援助頁亦提供其他詳細資訊。
關於以本機模式裝載 VxFS 之類檔案系統的程序,請參閱 "啟動高可用性的本機檔案系統"。SUNW.HAStoragePlus 線上援助頁亦提供其他詳細資訊。
下列特性已在 Sun Cluster 3.0 5/02 更新版次中介紹過,且適用於本更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。
Prioritized Service Management (RGOffload) 可讓叢集自動釋出節點的資源供重要的資料服務使用。當某個重要的故障轉移資源服務需要另一個較不重要、具有延伸性或故障轉移的資料服務切換為離線狀態時,就要使用 RGOffload。RGOffload 可以卸載內含較不重要之資料服務的資源群組。
重要的資料服務必須是具有故障轉移功能的資料服務。 要卸載的資料服務則可以是具有故障轉移功能或延伸性的資料服務。
下列變更已在 Sun Cluster 3.0 5/02 更新版次中介紹過,且適用於本更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。
成為叢集成員的超級使用者。
檢查 RGOffload 資源類型是否已經註冊。
以下指令會列出資源類型。
# scrgadm -p|egrep SUNW.RGOffload |
必要時,註冊此資源類型
# scrgadm -a -t SUNW.RGOffload |
將要用 RGOffload 資源卸載的每個資源群組中的 Desired_primaries 設成 0。
# scrgadm -c -g offload-rg -y Desired_primaries=0 |
將 RGOffload 資源加入重要的故障轉移資源群組內,並設定其延伸屬性。
任何資源群組最多只能放在一份資源的 rg_to_offload 清單內。若將某個資源群組放在多份 rg_to_offload 清單內,可能會導致該資源群組一直重複離線與上線運作。
關於延伸屬性的說明,請參閱 "配置 RGOffload 延伸屬性 (5/02)"。
# scrgadm -aj rgoffload-resource -t SUNW.RGOffload -g critical-rg \ -x rg_to_offload=offload-rg-1, offload-rg-2, ...\ -x continue_to_offload=TRUE -x max_offload_retry=15 |
在此列出除了 rg_to_offload 之外其他延伸屬性的預設值。rg_to_offload 是以逗號隔開的清單,屬於彼此獨立的資源群組。此清單中不可以包含要加入 RGOffload 資源的資源群組。
啟動 RGOffload 資源。
# scswitch -ej rgoffload-resource |
設定 RGOffload 資源上重要的故障轉移資源的相依關係。
# scrgadm -c -j critical-resource \ -y Resource_dependencies=rgoffload-resource |
也可以使用 Resource_dependencies_weak。若將 Resource_dependencies_weak 用在 RGOffload 資源類型上,則即使卸載 offload-rg 時遇到錯誤,此項重要的故障轉移資源還是能夠啟動。
卸載資源群組並使其上線運作。
# scswitch -z -g offload-rg, offload-rg-2, ...-h nodelist |
只要在所有節點上重要的資源群組為離線狀態,此資源群組便會保持上線運作。錯誤監視器會防止在重要的資源群組為上線狀態的同時執行資源群組。
由於要卸載的資源群組的 Desired_primaries 設定為 0 (請參閱 步驟 4),因此 -Z 選項不會讓這些資源群組上線運作。
如果重要的故障轉移資源群組未上線,則讓它上線運作。
# scswitch -Z -g critical-rg |
此範例說明如何配置 RGOffload 資源 (rgofl)、含有 RGOffload 資源的重要資源群組 (oracle_rg) 以及當重要的資源群組上線運作時即卸載的延伸性資源群組 (IWS-SC, IWS-SC-2)。此範例中的重要資源為 oracle-server-rs。
在此範例中,可在 triped 叢集的任何節點上控制 oracle_rg、IWS-SC 與 IWS-SC-2:phys-triped-1、phys-triped-2、phys-triped-3。
[Determine whether the SUNW.RGOffload resource type is registered.] # scrgadm -p|egrep SUNW.RGOffload [If needed, register the resource type.] # scrgadm -a -t SUNW.RGOffload [Set the Desired_primaries to zero in each resource group to be offloaded by the RGOffload resource.] |
下列變更已在 Sun Cluster 3.0 5/02 更新版次中介紹過,且適用於本更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。
一般而言,會在建立 RGOffload 資源時,使用指令行 scrgadm -x parameter=value 配置延伸屬性。關於 Sun Cluster 所有標準屬性的詳細資訊,請參閱 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide 中的「標準屬性」。
表 5-1 說明可為 RGOffload 配置的延伸屬性。其中「調整時機」項目代表該屬性何時可予以更新。
表 5-1 RGOffload 延伸屬性
名稱/資料類型 |
預設值 |
---|---|
rg_to_offload (字串) |
當重要的資源群組在某個節點上啟動時,要在該節點上卸載之資源群組以逗號分隔的清單。此清單不應包含彼此有相依關係的資源群組。此屬性無預設值,必須加以設定。
RGOffload 不會檢查 rg_to_offload 延伸屬性中所設定之資源群組清單內,是否有任何相依關係迴路。例如,假設資源群組 RG-B 以某種方式依靠 RG-A,則 rg_to_offload 中不應包含 RG-A 與 RG-B 兩者。
預設值:無 調整時機: 任何時候 |
continue_to_offload (布林值) |
此一布林值表示卸載某個資源群組發生錯誤後,是否要繼續卸載 rg_to_offload 清單中剩餘的資源群組。
只有 START 方法會使用此項屬性。
預設值:True 調整時機: 任何時候 |
max_offload_retry (整數) |
因叢集或資源群組重新配置而啟動時,嘗試卸載資源群組的次數。兩次重試動作之間的時間間隔為 10 秒。
max_offload_retry 應設定成讓 (要卸載的資源群組個數 * max_offload_retry * 10 秒) 的值小於 RGOffload 資源的 Start_timeout 值。如果此計算結果接近,甚至大於 Start_timeout 的值,則 RGOffload 資源的 START 方法就有可能在完成所有卸載嘗試動作之前就逾時了。
只有 START 方法會使用此項屬性。
預設值:15 調整時機: 任何時候 |
下列變更已在 Sun Cluster 3.0 5/02 更新版次中介紹過,且適用於本更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。
RGOffload 資源的測試「錯誤監視器」可以讓 rg_to_offload 延伸屬性中指定的資源群組,在控制重要資源的節點上保持離線狀態。每次進行探測時,「錯誤監視器」都會檢查控制重要資源的節點上,應該要卸載的資源 (offload-rg) 是否已經離線。如果控制重要資源節點上的 offload-rg 為上線狀態,則「錯誤監視器」便會嘗試啟動其他節點上的 offload-rg,藉此讓控制重要資源之節點上的 offload-rg 離線。
由於 offload-rg 的 desired_primaries 設定成 0,因此已卸載的資源群組不會在稍後上線運作的節點上重新啟動。這麼一來,在讓控制重要資源之節點上的 offload-rg 保持離線狀態的同時,「RGOffload 錯誤監視器」便會嘗試啟動更多主要節點上的 offload-rg,直到達到 maximum_primaries 的限制為止。
RGOffload 會嘗試啟動所有已經卸載的資源群組,除了處於維護或不管理狀態的之外。若要將資源群組切換為不管理狀態,可利用 scswitch 指令執行。
# scswitch -u -g resourcegroup |
每隔一段 Thorough_probe_interval,「錯誤監視器」探測便會開始一連串檢查。
下述資訊適用於本更新版次以及所有後續的更新版次。
下列變更已在 Sun Cluster 3.0 5/02 更新版次中介紹過,且適用於本更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。
Solaris 9 作業環境本身便附有 iPlanet 目錄伺服器。如果您使用的是 Solaris 9,請利用 Solaris 9 CD-ROM 安裝 iPlanet 目錄伺服器。
將 iPlanet 目錄伺服器套件安裝到叢集中尚未安裝此套件的所有節點上。
在叢集檔案系統中找出一個地方,存放所有目錄伺服器 (例如 /global/nsldap)。
必要時,可為此檔案系統建立個別的目錄。
在所有節點上建立從 /var/ds5 連結到此目錄。萬一某個節點上已經有 /var/ds5 這個目錄,請將其刪除,然後再重新造出連結。
# rmdir /var/ds5 # ln -s /global/nsldap /var/ds5 |
在任何一個節點上,依照平常的方式設定目錄伺服器。
# directoryserver setup |
此節點上會自動建立 /usr/iplanet/ds5/slapd-instance-name 這個連結。在其他節點上則須以手動方式建立此連結
下述範例中,dixon-1 是目錄伺服器的名稱。
# ln -s /var/ds5/slapd-dixon-1 /usr/iplanet/ds5/slapd-dixon-1 |
當 setup 指令提示您輸入伺服器名稱時,請輸入邏輯主機名稱。
經過這個步驟的設定之後,故障轉移功能才能正常運作。
您指定的邏輯主機在您執行 directoryserver setup 指令的節點上必須為上線狀態。在 iPlanet Directory Server 安裝結束時必須為此狀態,因為 iPlanet Directory Server 會自動啟動,且如果在該節點上您指定的邏輯主機為離線狀態,則無法正常啟動。
當系統提示您輸入邏輯主機名稱時,請以您的網域加上邏輯主機名稱作為電腦名稱,例如 phys-schost-1.example.com。
當 setup 指令提示您輸入完整的伺服器名稱時,請輸入與網路資源相關的主機名稱。
如果系統提示您輸入作為「iPlanet Directory Server 管理伺服器」的 IP 位址,請輸入您執行 directoryserver setup 指令之叢集節點的 IP 位址。
此安裝過程中會一併設定「iPlanet Directory Server 管理伺服器」。您指定給此伺服器的 IP 位址必須是某個實際叢集節點的 IP 位址,而不是要進行故障轉移的邏輯主機名稱。
在您配置並啟動這些網路資源之後,請至 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide 中的「如何配置 iPlanet 目錄伺服器」。
下述資訊適用於本更新版次以及所有後續的更新版次。
下列變更已在 Sun Cluster 3.0 5/02 更新版次中介紹過,且適用於本更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。
此程序說明如何將 iPlanet Web 伺服器配置成具有高可用性。請使用 NetscapeTM 瀏覽器配合此程序操作。
進行此程序之前,請先考慮以下幾點。
開始進行之前,請先確認要存取此叢集所在網路的機器上,是否已安裝瀏覽器。您可以將瀏覽器安裝在叢集中的某個節點上,或安裝在叢集的管理工作站上。
配置檔案可以放在本機檔案系統內,或叢集檔案系統內。
針對安全實例安裝的任何憑證,都必須從所有叢集節點上安裝。此安裝過程包括在每個節點上執行管理主控台。因此,如果叢集擁有 n1、n2、n3 與 n4 這幾個節點,則安裝步驟如下。
在 n1 節點上執行管理伺服器。
使用瀏覽器連接管理伺服器,網址為 http://n1.網域:通訊埠-例如 http://n1.example.com:8888-或您指定的管理伺服器通訊埠。一般而言,通訊埠都是使用 8888。
安裝認證。
停止 n1 節點上的管理伺服器,然後在 n2 節點上執行管理伺服器。
使用瀏覽器連接新的管理伺服器,網址為 http://n2.網域:通訊埠,例如 http://n2.example.com:8888。
針對 n3 與 n4 這兩個節點重複這些步驟。
考慮過以上幾點後,請完成以下步驟。
在所有節點本身的磁碟上建立一個目錄,存放 iPlanet Web Server 管理的記錄檔、錯誤檔以及 PID 檔案。
這些檔案必須位於叢集中的每個節點上,而不是放在叢集檔案系統上,如此 iPlanet 才能正確運作。
在本機磁碟上選取一個與叢集內所有節點本身的磁碟上相同的位置。使用 mkdir -p 指令建立目錄。將此目錄的擁有者設定為 nobody。
以下範例顯示如何完成此步驟。
phys-schost-1# mkdir -p /var/pathname/http-instance/logs/ |
如果您預計會產生很多錯誤記錄檔與 PID 檔案,那麼請勿將它們放在 /var 底下的某個目錄中,以免將此目錄的空間用完。請在另一個擁有足夠空間可處理大型檔案的分割區上建立一個目錄。
在管理工作站或叢集節點上啟動 Netscape 瀏覽器。
在叢集中的任何一個節點上,移到 https-admserv 目錄內,然後啟動 iPlanet 管理伺服器。
# cd https-admserv # ./start |
在 Netscape 瀏覽器內輸入 iPlanet 管理伺服器的 URL。
此 URL 是由 iPlanet 安裝程序檔在伺服器安裝程序步驟 4 中所建立的實際主機名稱與通訊埠號碼所組成,例如 n1.example.com:8888。當您進行此程序的 步驟 2 時,./start 指令便會顯示管理 URL。
當系統提示您輸入使用者 ID 與密碼時,請輸入在伺服器安裝程序步驟 6 中指定的使用者 ID 與密碼,以登入 iPlanet 管理伺服器介面。
盡量使用管理伺服器,不足之處則以手動方式進行變更,以完成以下步驟:
下列變更已在 Sun Cluster 3.0 5/02 更新版次中介紹過,且適用於本更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。
資源群組屬性清單中新增了一項資源群組屬性 Auto_start_on_new_cluster。
表 5-2 資源群組屬性
屬性名稱 |
說明 |
---|---|
Auto_start_on_new_cluster (布林值) |
正在形成新的叢集時,此屬性可停用「資源群組」的自動啟動。
預設值為 TRUE。如果此屬性設定為 TRUE,則「資源群組管理員」會在叢集重新開機時,嘗試自動啟動該資源群組以達到 Desired_primaries。如果設定為 FALSE,則叢集重新開機時,「資源群組」並不會自動啟動。
種類: 選擇性的 預設值:True 調整時機: 任何時候 |