下表列出新增節點至現有叢集時執行的作業。若要正確完成此程序,請依下列順序執行下述作業。
表 7–2 對應作業:新增叢集節點至現有叢集
作業 |
如需相關說明,請參閱... |
---|---|
在節點上安裝主機配接卡,並確認現行叢集交互連接可支援新的節點 |
「Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS」 |
新增共用儲存體 |
「Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS」 |
新增節點至已授權的節點清單 - 使用 scsetup | |
在新叢集節點上安裝與配置軟體 - 安裝 Solaris 作業系統與 Sun Cluster 軟體 - 將節點配置成叢集的一部份 |
「Sun Cluster 軟體安裝指南(適用於 Solaris 作業系統)」中的第 2 章「安裝和配置 Sun Cluster 軟體」 |
下表列出從現有叢集移除節點時必須執行的作業。若要正確完成此程序,請依下列順序執行下述作業。
如果您的叢集執行 OPS 配置,請不要使用這個程序。此時,在 OPS 配置中移除節點可能會在重新啟動時造成節點混亂。
作業 |
如需相關說明,請參閱... |
---|---|
將所有資源群組及磁碟裝置群組從欲移除的節點移出。 - 使用 scswitch(1M) |
# scswitch -S -h from-node |
從所有資源群組移除節點 - 使用 scrgadm(1M) |
「Sun Cluster Data Services Planning and Administration Guide for Solaris OS」 |
從所有磁碟裝置群組移除節點 - 使用 scconf(1M)、metaset(1M) 和 scsetup(1M) |
如何從磁碟裝置群組移除節點 (Solstice DiskSuite/Solaris Volume Manager) SPARC: 如何從磁碟裝置群組移除節點 (VERITAS Volume Manager) 注意︰如果所需的次要節點數被配置為 2 個或更多,則必須將其減少至 1。 |
移除所有完全連接的法定裝置。 - 使用 scsetup。 |
注意︰如果您要從兩個節點的叢集移除一個節點,請勿移除法定裝置。
請注意,即使在下一個步驟中您必須在移除儲存裝置前先移除法定裝置,您仍可以在步驟完成後立即將法定裝置加入。 |
從節點移除所有完全連接的儲存裝置。 - 使用 devfsadm(1M)、scdidadm(1M)。 |
注意︰如果您要從兩個節點的叢集移除一個節點,請勿移除法定裝置。如何在擁有兩個以上節點連接的叢集中移除陣列與單一節點之間的連接 |
重新加入法定裝置 (僅新增到要保留在叢集中的節點)。 - 使用 scconf -a -q globaldev=d[n],node= node1,node=node2 | |
使要移除的節點進入維護狀態。 - 使用 scswitch(1M)、shutdown(1M) 和 scconf(1M) | |
移除要移除的節點之所有邏輯傳輸連接 (傳輸電纜與配接卡)。 - 使用 scsetup。 | |
移除與要移除的節點連接的所有法定裝置。 - 使用 scsetup、scconf(1M)。 | |
從叢集軟體配置移除節點 - 使用 scconf(1M)。 |
在新增機器至現有叢集之前,確定節點已正確安裝與配置了所有必要的硬體,其中包括專用叢集交互連接的良好實體連接。
如需有關硬體安裝資訊,請參閱「Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS」或與伺服器隨附的硬體文件。
此程序允許機器藉由在叢集中已授權的節點上加入其節點名稱,來完成本身在該叢集的安裝。
您必須是現行叢集成員的超級使用者,才能完成此程序。
請確定您已正確完成了新增與移除叢集節點之作業對應表中所有必需的硬體安裝與配置作業。
鍵入 scsetup 指令。
# scsetup |
顯示 Main Menu。
若要存取 New Nodes Menu,請在 Main Menu 鍵入 7。
若要修改授權清單,請在 New Nodes Menu 鍵入 3,指定可自行新增的機器名稱。
請依出現的提示訊息新增叢集中的節點名稱。系統會要求您輸入要新增的節點名稱。
確認作業成功執行。
如果無誤地完成作業,scsetup 公用程式會列印一張 “Command completed successfully” 訊息。
結束 scsetup 公用程式。
在新叢集節點上安裝與配置軟體
使用 scinstall 或 JumpStartTM 完成新節點的安裝與配置,如「Sun Cluster 軟體安裝指南(適用於 Solaris 作業系統)」中所述。
若要防止叢集中再增加任何新機器,請在 New Nodes Menu 鍵入 1。
請遵循 scsetup 提示。此選項告訴叢集要忽略所有來自公用網路上,嘗試要將本身加入叢集的所有新機器之請求。
以下範例顯示如何新增名為 phys-schost-3 的節點到現有叢集中的已授權節點清單。
[Become superuser and execute the scsetup utility.] # scsetup Select New nodes>Specify the name of a machine which may add itself. Answer the questions when prompted. Verify that the scconf command completed successfully. scconf -a -T node=phys-schost-3 Command completed successfully. Select Prevent any new machines from being added to the cluster. Quit the scsetup New Nodes Menu and Main Menu. [Install the cluster software.] |
如需有關增加叢集節點作業的完整清單,請參閱表 7–2「作業對應表:新增叢集節點」
若要將節點增加至現有的資源群組,請參閱「Sun Cluster Data Services Planning and Administration Guide for Solaris OS」。
請確定您已正確完成了新增與移除叢集節點中「增加與移除叢集結點」作業對應表中列出的所有必需的作業。
確認您已將節點從所有資源群組、磁碟裝置群組及法定裝置配置移除,並在繼續此程序前將它置於維護狀態。
在不同於要移除的節點叢集中的一個節點上成為超級使用者。
從叢集移除節點。
# scconf -r -h node=node-name |
使用 scstat(1M) 驗證節點是否已經移除。
# scstat -n |
您是否要從已移除的節點解除安裝 Sun Cluster 軟體?
如果是,請移至如何從叢集節點移除 Sun Cluster 軟體。或者,您可在節點上重新安裝 Solaris 軟體。
如果否,則請依照「Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS」中的說明將節點從叢集中實體移除,移除實體連接。
這個範例顯示如何從叢集移除節點 (phys-schost-2)。所有指令都是從叢集的另一個節點執行 (phys-schost-1)。
[Remove the node from the cluster:] phys-schost-1# scconf -r -h node=phys-schost-2 [Verify node removal:] phys-schost-1# scstat -n -- Cluster Nodes -- Node name Status --------- ------ Cluster node: phys-schost-1 Online |
若要從已移除的節點解除安裝 Sun Cluster 軟體,請參閱如何從叢集節點移除 Sun Cluster 軟體
如需有關硬體程序,請參閱「Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS」。
如需有關移除叢集節點作業的完整清單,請參閱表 7–3。
若要將節點增加至現有叢集,請參閱如何新增節點至已授權的節點清單。
使用此程序從具有三或四個節點連接中的單一叢集節點分離儲存陣列。
備份所有與欲移除之儲存陣列相關的資料庫表格、資料服務及容體。
判斷在要中斷連線的節點上所執行的資源群組與裝置群組。
# scstat |
必要時,將所有資源群組與裝置群組從要中斷連線的節點移出。
如果您的叢集在執行 Oracle Parallel Server/Real Application Clusters 軟體,請關閉正在節點執行的 Oracle Parallel Server/Real Application Clusters 資料庫實例,然後將群組移出節點。如需相關說明,請參閱 Oracle 資料庫管理指南。
# scswitch -S -h from-node |
使裝置群組進入維護狀態。
如需有關默許 Veritas 共用磁碟群組 I/O 活動的程序,請參閱您的 VxVM 文件。
如需有關使裝置群組進入維護狀態的程序,請參閱第 7 章, 管理叢集。
從裝置群組移除節點。
如果您使用的是 VxVM 或原始磁碟,請使用 scconf(1M) 指令移除裝置群組。
如果您使用 Solstice DiskSuite,則使用 metaset 指令移除裝置群組。
如果群組執行 HAStorage 或 HAStoragePlus,請將節點從資源群組的節點清單移除。
# scrgadm -a -g resource-group -h nodelist |
請參閱「Sun Cluster Data Services Planning and Administration Guide for Solaris OS」,以取得有關變更資源群組之節點清單的更多資訊。
當執行 scrgadm 時,資源類型、資源群組及資源特性名稱不需區分大小寫。
如果您要移除的儲存陣列是連接到節點的最後一個儲存陣列,請中斷節點與連接到此儲存陣列的集線器或切換器之間的光纖電纜連線 (否則,請省略此步驟)。
您是否想從要中斷節點的連線以移除主機配接卡?
如果是,關閉節點並關閉電源。
如果否,請跳至步驟 11。
從節點移除主機配接卡。
如需有關移除主機配接卡的的程序,請參閱節點隨附的說明文件。
開啟節點的電源,但不要啟動節點。
將節點開機進入非叢集模式。
SPARC:
ok boot -x |
x86:
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -x |
在下一個步驟中移除 Oracle Parallel Server/Real Application Clusters 軟體之前,節點必須處於非叢集模式,否則該節點將發生混亂,並可能導致資料可用性遺失。
SPARC:如果已經安裝了 Oracle Parallel Server/Real Application Clusters 軟體,請從您要中斷連線的節點移除 Oracle Parallel Server/Real Application Clusters 軟體套裝模組。
# pkgrm SUNWscucm |
如果您沒有將 Oracle Parallel Server/Real Application Clusters 軟體從要中斷連線的節點移除,當節點重新加入叢集時將發生混亂,並可能導致資料可用性遺失。
將節點開機進入叢集模式。
SPARC:
ok boot |
x86:
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b |
在節點上,藉由更新 /devices 及 /dev 項目來更新裝置名稱空間。
# devfsadm -C # scdidadm -C |
讓裝置群組重新上線。
如需有關如何使 VERITAS 共用磁碟群組上線的程序,請參閱您的 VERITAS Volume Manager 說明文件。
有關如何讓裝置群組上線的程序,請參閱使裝置群組進入維護狀態的程序。
在您從完整建立的叢集配置中斷節點之前,執行此程序以解除安裝 Sun Cluster 軟體。您可以利用此程序從叢集最後存留的節點上移除軟體。
若要從尚未加入叢集或仍然處於安裝模式的節點上移除 Sun Cluster 軟體,則請勿執行此程序。否則,請移至「Sun Cluster 軟體安裝指南(適用於 Solaris 作業系統)」。
請確定您已正確完成移除叢集節點的對應作業中所列的所有必備作業。
請參閱新增與移除叢集節點。
請確定在繼續這個程序前,您已從所有資源群組、裝置群組以及法定裝置配置移除節點、讓它進入維護狀態,並從叢集將它移除。
在您將移除的節點之外的主動叢集成員上成為超級使用者。
從使用中的叢集成員,將您要解除安裝的節點新增至叢集節點認證清單。
# scconf -a -T node=nodename |
加入
指定認證選項
指定要加入授權清單中的節點名稱。
或者,您可以使用 scsetup(1M) 公用程式。請參閱如何新增節點至已授權的節點清單,以取得相關程序。
成為要移除的節點上的超級使用者。
將節點重新啟動,進入非叢集模式。
SPARC:
# shutdown -g0 -y -i0ok boot -x |
x86:
# shutdown -g0 -y -i0 ... <<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -x |
在 /etc/vfstab 檔案中,除了 /global/.devices 全域裝載之外,移除所有全域裝載的檔案系統項目。
從節點移除 Sun Cluster 軟體。
從與任何 Sun Cluster 套件無關的目錄執行指令。
# cd / # scinstall -r |
請參閱 scinstall(1M) 線上手冊,以取得更多資訊。如果 scinstall 傳回錯誤訊息,請參閱未移除的叢集檔案系統項目。
若有傳輸電纜與傳輸接點,請從其他的叢集裝置上將它們斷線。
若要更正前面各節的錯誤訊息,請執行此程序。
嘗試將節點重新加入叢集。
# boot |
節點是否成功地重新加入叢集?
如果否,請繼續執行步驟 3。
如果是,請依照下列步驟從磁碟裝置群組移除節點。
如果節點成功地重新加入叢集,請從剩下的磁碟裝置群組中移除節點。
請執行如何從所有磁碟裝置群組移除節點中的程序。
從所有磁碟裝置群組移除節點後,請返回如何從叢集節點移除 Sun Cluster 軟體,並重複執行此程序。
如果節點無法重新加入叢集,請將節點的 /etc/cluster/ccr 檔重新命名為您所選的其他名稱,例如,ccr.old。
# mv /etc/cluster/ccr /etc/cluster/ccr.old |
請返回如何從叢集節點移除 Sun Cluster 軟體,並重複執行此程序。
本節說明當您執行 scinstall -r 指令時可能接收到的錯誤訊息,以及應採取的更正動作。
下列錯誤訊息表示您所移除的節點在它的 vfstab 檔中仍然擁有參照的叢集檔案系統。
Verifying that no unexpected global mounts remain in /etc/vfstab ... failed scinstall: global-mount1 is still configured as a global mount. scinstall: global-mount1 is still configured as a global mount. scinstall: /global/dg1 is still configured as a global mount. scinstall: It is not safe to uninstall with these outstanding errors. scinstall: Refer to the documentation for complete uninstall instructions. scinstall: Uninstall failed. |
若要更正此錯誤,請返回如何從叢集節點移除 Sun Cluster 軟體,並重複執行此程序。請確保您已成功完成了此程序中的步驟 6,然後再重新執行 scinstall -r 指令。
下列錯誤訊息表示您所移除的節點仍然列在磁碟裝置群組裡。
Verifying that no device services still reference this node ... failed scinstall: This node is still configured to host device service "service". scinstall: This node is still configured to host device service "service2". scinstall: This node is still configured to host device service "service3". scinstall: This node is still configured to host device service "dg1". scinstall: It is not safe to uninstall with these outstanding errors. scinstall: Refer to the documentation for complete uninstall instructions. scinstall: Uninstall failed. |