本章提供管理可影響整個叢集之項目的程序。
以下是本章所介紹程序的清單。
作業 |
如需相關說明,請參閱... |
---|---|
變更叢集的名稱 | |
列出節點 ID 及其對應的節點名稱 | |
容許或拒絕新節點將本身加到叢集中 | |
使用「網路時間通訊協定」(Network Time Protocol,NTP) 變更叢集的時間 | |
在以 SPARC 為基礎的系統上使節點顯示 OpenBoot PROM ok 提示符號,或在以 x86 為基礎的系統上使其進入啟動子系統 | |
變更專用主機名稱 | |
使叢集節點進入維護狀態 | 如何使節點進入維護狀態 |
使叢集節點離開維護狀態 | |
新增節點至叢集 | |
從叢集移除節點 |
如有必要,您可以在初次安裝之後變更叢集名稱。
成為叢集中任何節點的超級使用者。
鍵入 scsetup 指令。
# scsetup |
顯示 Main Menu。
若要變更叢集名稱,請鍵入 7 (其他叢集屬性)。
此時會顯示「其他叢集屬性」功能表。
從功能表選取,接著依螢幕上出現的指示進行。
以下範例顯示產生自 scsetup (1M) 公用程式的 scconf( 1M) 指令,可用來變更為新叢集名稱 dromedary。
# scconf -c -C cluster=dromedary |
在安裝 Sun Cluster 期間,會自動為每一個節點指定一個唯一的節點 ID 號碼。 指定給節點的節點 ID 號碼是依它第一次加入叢集的順序,一旦指定後,該號碼便不可以變更。 節點 ID 編號通常用於錯誤訊息中識別與訊息相關的叢集節點。 請使用這個程序來判斷節點 ID 與節點名稱之間的對應。
您不必是超級使用者也可以列示配置資訊。
使用 scconf(1M) 指令列出叢集配置資訊。
% scconf -pv | grep "Node ID" |
下列範例顯示節點 ID 指定。
% scconf -pv | grep “Node ID” (phys-schost-1) Node ID: 1 (phys-schost-2) Node ID: 2 (phys-schost-3) Node ID: 3 |
Sun Cluster 可讓您決定新節點是否可以將其自身新增至叢集,並決定使用的授權類型。 您可以容許任何新節點透過公用網路加入叢集、拒絕新節點加入叢集,或指示可加入叢集的特定節點。 可使用標準 UNIX 或 Diffie-Hellman (DES) 授權來驗證新節點。 如果您選取 DES 授權,您還必須先配置所有必要的暗碼鍵,節點才能夠加入。 請參閱 keyserv (1M) 及 publickey(4) 線上說明手冊,以取得詳細資訊。
成為叢集中任何節點的超級使用者。
輸入 scsetup(1M) 公用程式。
# scsetup |
顯示 Main Menu。
要使用叢集授權,請鍵入 6 (新節點)。
會出現 New Nodes 功能表。
從功能表選取,接著依螢幕上出現的指示進行。
以下範例顯示產生自 scsetup 公用程式的 scconf 指令,可防止新機器加入到叢集。
# scconf -a -T node=. |
以下範例顯示產生自 scsetup 公用程式的 scconf 指令,可允許所有的新機器加入到叢集。
# scconf -r -T all |
以下範例顯示產生自 scsetup 公用程式的 scconf 指令,可將單一新機器加入到叢集。
# scconf -a -T node=phys-schost-4 |
以下範例顯示 scconf 指令,這是產生自 scsetup 公用程式,可將加入叢集的新節點重設到標準 UNIX 授權。
# scconf -c -T authtype=unix |
以下範例顯示 scconf 指令,這是產生自 scsetup 公用程式,以便對加入叢集的新節點使用 DES 授權。
# scconf -c -T authtype=des |
如果使用 DES 授權,您還必須先配置所有必要的暗碼鍵,節點才能夠加入叢集。 請參閱 keyserv (1M) 及 publickey(4) 線上說明手冊,以取得詳細資訊。
Sun Cluster 使用網路時間協定 (NTP) 來維護叢集節點間的時間同步。 當節點同步化自己的時間時,會依需要在叢集內進行自動調整。 請參閱Sun Cluster 概念指南 (適用於 Solaris 作業系統)以及Network Time Protocol User's Guide,以取得詳細資訊。
如果您使用 NTP,請不要在啟動並執行叢集時調整叢集時間。 這些方法包括以互動方式使用 date(1)、rdate(1M) 或 xntpd(1M) 指令,或者在 cron(1M) 程序檔中使用這些指令。
成為叢集中任何節點的超級使用者。
關閉叢集。
# scshutdown -g0 -y |
在 [目前的啟動參數] 畫面上,請確認節點顯示 ok 提示符號或 Select (b)oot or (i)nterpreter 提示符號。
使用 boot(1M) 或配合 -x 選項使用 b 指令,以非叢集模式啟動節點。
SPARC︰
ok boot -x |
x86︰
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -x |
在單一節點上,執行 date 指令來設定時間。
# date HHMM.SS |
在其他機器上,執行 rdate(1M) 指令來使時間和該節點同步。
# rdate hostname |
將每一個節點重新開機來啟動叢集。
# reboot |
確認變更在所有的叢集節點都生效。
請在每一個節點上執行 date 指令。
# date |
如果您需要配置或變更 OpenBoot PROM 設定,則請使用此程序。
連接到終端機集線器。
# telnet tc_name tc_port_number |
指定終端機集線器的名稱。
指定終端機集線器上的通訊埠編號。 通訊埠編號和配置相關聯。 通常連接埠 2 與 3 (5002 及 5003) 適用於安裝在站點的第一個叢集。
依程序關閉叢集節點,方法為使用 scswitch (1M) 指令以撤出所有資源或磁碟裝置群組,然後使用 shutdown。
# scswitch -S -h node[,...] # shutdown -g0 -y -i0 |
請勿在叢集主控台上使用 send brk 來關閉叢集節點。
執行 OBP 指令。
在安裝初始時,便會指定預設的專用主機名稱。 預設的專用主機名稱以 clusternode<nodeid>-priv 形式出現,例如: clusternode3-priv。 請您唯有在專用主機名稱已在網域中使用時才去更動它。
請勿嘗試為新的專用主機名稱指定 IP 位址。 叢集軟體會指定它們。
在叢集的所有節點上,停用可能快取專用主機名稱的所有資料服務資源或其他應用程式。
# scswitch -n -j resource1, resource2 |
包括下列您停用的應用程式。
HA-DNS 與 HA-NFS 服務 (如果已經配置的話)。
所有已經自訂配置以使用專用主機名稱的應用程式。
任何用戶端用來私下交互連接的應用程式。
請參閱 scswitch(1M) 線上說明手冊以及Sun Cluster Data Services Planning and Administration Guide for Solaris OS,以取得有關使用 scswitch 指令的資訊。
關閉叢集中每一節點上的「網路時間通訊協定」(NTP) 常駐程式。
請參閱 xntpd(1M) 線上說明手冊,以取得有關 NTP 常駐程式的詳細資訊。
# /etc/initd./xntpd.cluster stop |
執行 scsetup(1M) 公用程式來變更適當節點的專用主機名稱。
唯有在叢集中的一個節點才需這麼做。
在選擇新的專用主機名稱時,請確定該名稱在叢集節點中是唯一的。
請從 Main Menu 選取 5、 Private Hostnames。
請從 Private Hostnames Menu 選取 1、Change a Private Hostname。
系統提示時,請回答問題。 您將會被問及變更專用主機名稱的節點名稱 (clusternode<nodeid-priv),以及新的專用主機名稱。
清除名稱服務快取記憶體。
在叢集的每一個節點上執行此工作。 這可避免叢集應用程式和資料服務嘗試去存取舊的專用主機名稱。
# nscd -i hosts |
在每一節點上編輯 ntp.conf.cluster 檔案,以變更為新的專用主機名稱。
您可使用偏好的編輯工具。
如果此步驟在安裝時便已完成,亦請記得移除已配置節點的名稱;在預設範本中有十六個預先配置好的節點。 通常,每個叢集節點中的 ntp.conf.cluster 檔案都完全相同。
請確認從所有叢集節點 ping 到的新專用主機名稱。
重新啟動 NTP 常駐程式。
在叢集的每一個節點上執行此工作。
# /etc/initd./xntpd.cluster start |
啟用所有「資料服務」資源,和其它在 步驟 1 中停用的應用程式。
# scswitch -e -j resource1, resource2 |
請參閱 scswitch 線上說明手冊與Sun Cluster Data Services Planning and Administration Guide for Solaris OS,以取得有關使用 scswitch 指令的資訊。
以下範例顯示如何在節點 phys-schost-2 上將專用主機名稱由 clusternode2-priv 變更為 clusternode4-priv。
[Disable all applications and data services as necessary.] phys-schost-1# /etc/init.d/xntpd stop phys-schost-1# scconf -p | grep node ... Cluster nodes: phys-schost-1 phys-schost-2 phys- schost-3 Cluster node name: phys-schost-1 Node private hostname: clusternode1-priv Cluster node name: phys-schost-2 Node private hostname: clusternode2-priv Cluster node name: phys-schost-3 Node private hostname: clusternode3-priv ... phys-schost-1# scsetup phys-schost-1# nscd -i hosts phys-schost-1# vi /etc/inet/ntp.conf ... peer clusternode1-priv peer clusternode4-priv peer clusternode3-priv phys-schost-1# ping clusternode4-priv phys-schost-1# /etc/init.d/xntpd start [Enable all applications and data services disabled at the beginning of the procedure.] |
在停止叢集節點的服務時使節點進入維護狀態,直到延展的寬限期為止。 這樣,在維護節點時便不會影響法定票數。 若要使叢集節點進入維護狀態,必須使用 scswitch(1M) 與 shutdown(1M) 來關閉節點。
請使用 Solaris shutdown 指令來關閉單一節點。 僅在關閉整個叢集時才應使用 scshutdown 指令。
當叢集節點關閉並進入維護狀態時,所有配置為和節點有連接埠相連的法定裝置,它們的法定票數都會減一。 當節點離開維護模式成為線上狀態時,節點與法定裝置的票數會加上一。
您需要使用 scconf(1M) 指令來使叢集節點進入維護狀態。 scsetup(1M) 公用程式不包含用來使法定裝置進入維護狀態的功能。
在要進入維護狀態的節點上成為超級使用者。
撤出此節點的任何資源群組和磁碟裝置群組。
# scswitch -S -h node[,...] |
從指定的節點撤出所有的裝置服務與資源群組。
指定您要用來切換資源群組及裝置群組的節點。
關閉您已撤出的節點。
# shutdown -g0 -y -i0 |
在叢集的另一個節點成為超級使用者,並使您在步驟 3 中關閉的節點進入維護狀態。
# scconf -c -q node=node,maintstate |
指定 scconf 指令的變更形式。
管理法定選項。
指定要變更之節點的節點名稱或節點 ID。
使節點進入維護狀態。
確認叢集節點現在已經進入維護狀態。
# scstat -q |
要進入維護狀態的節點必須有 offline Status,以及為 0 (零) 的 Present 和 Possible 法定票數。
下列範例使叢集節點進入維護狀態,同時確認結果。 scstat -q 輸出顯示 phys-schost-1 的 Node votes 為 0 (零),而狀態為 Offline。 Quorum Summary 應該也會顯示減少的票數。 根據您的配置,Quorum Votes by Device 輸出可能也會指出某些法定磁碟裝置為離線。
[On the node to be put into maintenance state:] phys-schost-1# scswitch -S -h phys-schost-1 phys-schost-1# shutdown -g0 -y -i0 [On another node in the cluster:] phys-schost-2# scconf -c -q node=phys-schost-1,maintstate phys-schost-2# scstat -q -- Quorum Summary -- Quorum votes possible: 3 Quorum votes needed: 2 Quorum votes present: 3 -- Quorum Votes by Node -- Node Name Present Possible Status --------- ------- -------- ------ Node votes: phys-schost-1 0 0 Offline Node votes: phys-schost-2 1 1 Online Node votes: phys-schost-3 1 1 Online -- Quorum Votes by Device -- Device Name Present Possible Status ----------- ------- -------- ------ Device votes: /dev/did/rdsk/d3s2 0 0 Offline Device votes: /dev/did/rdsk/d17s2 0 0 Offline Device votes: /dev/did/rdsk/d31s2 1 1 Online |
若要恢復節點連線,請參閱 如何使節點離開維護狀態。
請使用下列程序使節點恢復連線,並重新設定法定票數為預設值。 對於叢集節點,預設法定票數為一。 對於法定裝置,預設法定票數是 N-1,其中 N 為具有非零票數之節點的數目,這些節點和法定裝置之間有埠相連。
當節點進入維護狀態時,節點的法定票數會遞減一。 所有配置為和節點之間有連接埠的法定裝置,都會使它們的法定票數遞減。 當法定票數被重設且某個節點離開維護狀態時,節點的法定票數和法定裝置票數會遞增一。
請在節點已進入維護狀態、而您要使它離開維護狀態的任何時候,執行此程序。
如果您不指定 globaldev 或 node 選項,將重設整個叢集的法定票數。
成為叢集中任何節點的超級使用者,而不是在進入維護狀態的節點上。
如果使用法定數目,請從不是處於維護狀態的節點重新設定叢集法定票數。
您必須重設未處於維護狀態之節點的法定票數,然後再重新啟動節點,否則該節點可能會掛起並等待法定數目。
# scconf -c -q node=node,reset |
指定 scconf 指令的變更形式。
管理法定選項。
請指定要重新設定的節點名稱,例如 phys-schost-1。
重設法定數目的變更旗號。
啟動您想要離開維護狀態的節點。
驗證法定票數。
# scstat -q |
離開維護狀態的節點應該處於線上狀態,並顯示適當的現有票數與可能法定票數。
以下範例將叢集節點及其法定裝置的法定票數重設為其預設值,同時驗證結果。 scstat -q 輸出顯示 phys-schost-1 的節點票數為 1,而狀態為線上。 Quorum Summary 應該也會顯示增加的票數。
phys-schost-2# scconf -c -q node=phys-schost-1,reset |
於 phys-schost-1 上︰
SPARC︰
ok boot -x |
x86︰
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -x |
phys-schost-1# scstat -q -- Quorum Summary -- Quorum votes possible: 6 Quorum votes needed: 4 Quorum votes present: 6 -- Quorum Votes by Node -- Node Name Present Possible Status --------- ------- -------- ------ Node votes: phys-schost-1 1 1 Online Node votes: phys-schost-2 1 1 Online Node votes: phys-schost-3 1 1 Online -- Quorum Votes by Device -- Device Name Present Possible Status ----------- ------- -------- ------ Device votes: /dev/did/rdsk/d3s2 1 1 Online Device votes: /dev/did/rdsk/d17s2 1 1 Online Device votes: /dev/did/rdsk/d31s2 1 1 Online |
下表列出新增節點至現有叢集時執行的作業。 若要正確完成此程序,請依下列順序執行下述作業。
表 7–2 對應作業: 新增叢集節點至現有叢集
作業 |
如需相關說明,請參閱... |
---|---|
在節點上安裝主機配接卡,並確認現行叢集交互連接可支援新的節點 | |
新增共用儲存體 | |
新增節點至已授權的節點清單 - 使用 scsetup。 | 如何新增節點至已授權的節點清單 |
在新叢集節點上安裝與配置軟體 - 安裝 Solaris 作業環境與 Sun Cluster 軟體 - 將節點配置成叢集的一部份 |
Sun Cluster 軟體安裝指南 (適用於Solaris OS)中的「安裝與配置 Sun Cluster 軟體」 |
下表列出從現有叢集移除節點時必須執行的作業。 若要正確完成此程序,請依下列順序執行下述作業。
如果您的叢集執行 OPS 配置,請不要使用這個程序。 此時,在 OPS 配置中移除節點可能會在重新啟動時造成節點混亂。
作業 |
如需相關說明,請參閱... |
---|---|
將所有資源群組及磁碟裝置群組從欲移除的節點移出。 - 使用 scswitch( 1M) |
# scswitch -S -h from-node |
從所有資源群組移除節點 - 使用 scrgadm(1M) |
Sun Cluster Data Services Planning and Administration Guide for Solaris OS |
從所有磁碟裝置群組移除節點 - 使用 scconf(1M)、 metaset(1M) 及 scsetup(1M) |
如何從磁碟裝置群組移除節點 (Solstice DiskSuite/Solaris Volume Manager) SPARC: 如何從磁碟裝置群組移除節點 (VERITAS Volume Manager) 注意︰ 如果將所需的輔助裝置數配置為 2 或更多,必須將其減至 1。 |
移除所有完全連接的法定裝置。 - 使用 scsetup。 |
注意︰ 如果您要從兩個節點的叢集移除一個節點,請勿移除法定裝置。
請注意,即使在下一個步驟中您必須在移除儲存裝置前先移除法定裝置,您仍可以在步驟完成後立即將法定裝置加入。 |
從節點移除所有完全連接的儲存裝置。 - 使用 devfsadm(1M)、 scdidadm(1M)。 |
注意︰ 如果您要從二節點的叢集移除一個節點,請不要移除法定裝置。如何在擁有兩個以上節點連接的叢集中移除陣列與單一節點之間的連接 |
重新加入法定裝置 (僅新增到要保留在叢集中的節點)。 - 使用 scconf -a -q globaldev=d[ n],node=node1,node= node2 | |
使要移除的節點進入維護狀態。 - 使用 scswitch(1M)、shutdown(1M) 及 scconf(1M)。 | |
移除要移除的節點之所有邏輯傳輸連接 (傳輸電纜與配接卡)。 - 使用 scsetup。 | |
移除與要移除的節點連接的所有法定裝置。 - 使用 scsetup、scconf(1M)。 | |
從叢集軟體配置移除節點 - 使用 scconf(1M)。 |
在新增機器至現有叢集之前,確定節點已正確安裝與配置了所有必要的硬體,其中包括專用叢集交互連接的良好實體連接。
如需硬體安裝資訊,請參閱Sun Cluster Hardware Administration Manual for Solaris OS或您的伺服器隨附的硬體說明文件。
此程序允許機器藉由在叢集中已授權的節點上加入其節點名稱,來完成本身在該叢集的安裝。
您必須是目前叢集成員的超級使用者,才能完成此程序。
請確定您已經正確完成新增與移除叢集節點工作表中列示的所有必備的硬體安裝與配置作業。
鍵入 scsetup 指令。
# scsetup |
顯示 Main Menu。
若要存取 New Nodes Menu,請在 Main Menu 鍵入 7。
若要修改授權清單,請在 New Nodes Menu 鍵入 3,並指定可加入其本身的機器之名稱。
請依出現的提示訊息新增叢集中的節點名稱。 系統會要求您輸入要新增的節點名稱。
確認作業成功執行。
如果無誤地完成作業,scsetup 公用程式會列印一張 “Command completed successfully” 訊息。
結束 scsetup 公用程式。
在新叢集節點上安裝與配置軟體
使用 scinstall 或 JumpStartTM 來完成新節點的安裝及配置,如 Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)中所述。
若要防止叢集中再增加任何新機器,請在 New Nodes Menu 鍵入 1。
請遵循 scsetup 提示。 此選項告訴叢集要忽略所有來自公用網路上、試圖要將其本身加入叢集的所有新機器的請求。
以下範例顯示如何將名為 phys-schost-3 的節點新增到現有叢集中的授權節點清單。
[Become superuser and execute the scsetup utility.] # scsetup Select New nodes>Specify the name of a machine which may add itself. Answer the questions when prompted. Verify that the scconf command completed successfully. scconf -a -T node=phys-schost-3 Command completed successfully. Select Prevent any new machines from being added to the cluster. Quit the scsetup New Nodes Menu and Main Menu. [Install the cluster software.] |
如需新增叢集節點的所有作業清單,請參閱表 7–2 的「對應作業: 新增叢集節點」
若要新增節點至現有資源群組,請參閱Sun Cluster Data Services Planning and Administration Guide for Solaris OS。
確認您已正確完成新增與移除叢集節點 中「移除叢集節點」對應作業所列的所有必備作業。
確認您已將節點從所有資源群組、磁碟裝置群組及法定裝置配置移除,並在繼續此程序前將它置於維護狀態。
在不同於要移除的節點叢集中的一個節點上成為超級使用者。
從叢集移除節點。
# scconf -r -h node=node-name |
使用 scstat( 1M) 來確認節點移除。
# scstat -n |
您是否要從已移除的節點解除安裝 Sun Cluster 軟體?
如果是的話,請移至如何從叢集節點移除 Sun Cluster 軟體。 或者,您可在節點上重新安裝 Solaris 軟體。
如果不是,而要實際從叢集移除節點,請移除硬體連接,如Sun Cluster Hardware Administration Manual for Solaris OS中所述。
這個範例顯示如何從叢集移除節點 (phys-schost-2)。 所有指令都是從叢集的另一個節點執行 (phys-schost-1)。
[Remove the node from the cluster:] phys-schost-1# scconf -r -h node=phys-schost-2 [Verify node removal:] phys-schost-1# scstat -n -- Cluster Nodes -- Node name Status --------- ------ Cluster node: phys-schost-1 Online |
若要從已移除的節點解除安裝 Sun Cluster 軟體,請參閱如何從叢集節點移除 Sun Cluster 軟體。
如需硬體程序,請參閱Sun Cluster Hardware Administration Manual for Solaris OS。
如需移除叢集節點的整體作業清單,請參閱表 7–3。
若要新增節點至現有的叢集,請參閱如何新增節點至已授權的節點清單。
使用此程序,在具有 3 或 4 個節點連接的叢集中,從單一叢集節點分離儲存陣列。
備份所有與欲移除之儲存陣列相關的資料庫表格、資料服務及容體。
判斷在要中斷連線的節點上所執行的資源群組與裝置群組。
# scstat |
必要時,將所有資源群組與裝置群組從要中斷連線的節點移出。
如果您的叢集在執行 Oracle Parallel Server/Real Application Clusters 軟體,請關閉正在節點執行的 Oracle Parallel Server/Real Application Clusters 資料庫實例,然後將群組移出節點。 如需相關說明,請參閱Oracle 資料庫管理指南。
# scswitch -S -h from-node |
使裝置群組進入維護狀態。
如需有關如何停止 Veritas 共用磁碟群組 I/O 活動的程序,請參閱您的 VERITAS 容體管理程式 說明文件。
如需有關使裝置群組進入維護狀態的程序,請參閱「管理叢集」。
從裝置群組移除節點。
如果您使用 VERITAS 容體管理程式 或原始磁碟,請使用 scconf(1M) 指令移除裝置群組。
如果您使用 Solstice DiskSuite,則使用 metaset 指令移除裝置群組。
如果群組執行 HAStorage 或 HAStoragePlus,請將節點從資源群組的節點清單移除。
# scrgadm -a -g resource-group -h nodelist |
請參閱Sun Cluster Data Services Planning and Administration Guide for Solaris OS,以取得有關變更資源群組之節點清單的詳細資訊。
當執行 scrgadm 時,資源類型、資源群組及資源屬性名稱不需區分大小寫。
如果您要移除的儲存陣列是連接到節點的最後一個儲存陣列,請中斷節點與連接到此儲存陣列的集線器或切換器之間的光纖電纜連線 (否則,請省略此步驟)。
您是否想從要中斷節點的連線以移除主機配接卡?
如果是,關閉節點並關閉電源。
如果不是,請跳至步驟 11。
從節點移除主機配接卡。
如需有關移除主機配接卡的的程序,請參閱節點隨附的說明文件。
開啟節點的電源,但不要啟動節點。
將節點開機進入非叢集模式。
SPARC︰
ok boot -x |
x86︰
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -x |
在下一個步驟中移除 Oracle Parallel Server/Real Application Clusters 軟體之前,節點必須處於非叢集模式,否則該節點將發生混亂,並可能導致資料可用性遺失。
SPARC︰如果已經安裝了 Oracle Parallel Server/Real Application Clusters 軟體,請從您要中斷連線的節點移除 Oracle Parallel Server/Real Application Clusters 軟體套裝模組。
# pkgrm SUNWscucm |
如果您沒有將 Oracle Parallel Server/Real Application Clusters 軟體從要中斷連線的節點移除,當節點重新加入叢集時將發生混亂,並可能導致資料可用性遺失。
SPARC︰
ok boot |
x86︰
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b |
在節點上,藉由更新 /devices 及 /dev 項目來更新裝置名稱空間。
# devfsadm -C # scdidadm -C |
讓裝置群組重新上線。
如需有關如何使 VERITAS 共用磁碟群組上線的程序,請參閱您的 VERITAS 容體管理程式說明文件。
有關如何讓裝置群組上線的程序,請參閱使裝置群組進入維護狀態的程序。
在您從完整建立的叢集配置中斷節點之前,執行此程序以解除安裝 Sun Cluster 軟體。 您可以利用此程序從叢集最後存留的節點上移除軟體。
若要從尚未加入叢集或仍然處於安裝模式的節點上移除 Sun Cluster 軟體,則請勿執行此程序。 請移至Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)中的「如何解除安裝 Sun Cluster 軟體以修正安裝問題」。
請確定您已正確完成移除叢集節點的對應作業中所列的所有必備作業。
請參閱新增與移除叢集節點。
請確定在繼續這個程序前,您已從所有資源群組、裝置群組以及法定裝置配置移除節點、讓它進入維護狀態,並從叢集將它移除。
在您將移除的節點之外的主動叢集成員上成為超級使用者。
從作用中的叢集成員,將您要解除安裝的節點新增至叢集節點認證清單。
# scconf -a -T node=nodename |
新增
指定認證選項
指定要加入授權清單中的節點名稱。
或者,您也可使用 scsetup (1M) 公用程式。 請參閱如何新增節點至已授權的節點清單 以取得相關程序。
成為要移除的節點上的超級使用者。
SPARC︰
# shutdown -g0 -y -i0 ok boot -x |
x86︰
# shutdown -g0 -y -i0 ... <<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -x |
在 /etc/vfstab 檔案中,除了 /global/.devices 全域裝載之外,移除所有全域裝載的檔案系統項目。
從節點移除 Sun Cluster 軟體。
從與任何 Sun Cluster 套件無關的目錄執行指令。
# cd / # scinstall -r |
請參閱 scinstall(1M) 線上說明手冊,以取得詳細資訊。 如果 scinstall 傳回錯誤訊息,請參閱未移除的叢集檔案系統項目。
若有傳輸電纜與傳輸接點,請從其他的叢集裝置上將它們斷線。
若要更正前面各節的錯誤訊息,請執行此程序。
嘗試將節點重新加入叢集。
# boot |
節點是否成功地重新加入叢集?
如果不是,請前進至步驟 3。
如果是,請依照下列步驟從磁碟裝置群組移除節點。
如果節點成功地重新加入叢集,請從剩下的磁碟裝置群組中移除節點。
遵循如何從所有磁碟裝置群組移除節點 中的程序。
在您從所有磁碟裝置群組中移除節點之後,請回到 如何從叢集節點移除 Sun Cluster 軟體 並重複此項程序。
如果節點無法重新加入叢集,請將節點的 /etc/cluster/ccr 檔重新命名為您所選的其他名稱,例如 ccr.old。
# mv /etc/cluster/ccr /etc/cluster/ccr.old |
請回到如何從叢集節點移除 Sun Cluster 軟體 並重複此項程序。
本節說明當您執行 scinstall -r 指令時可能接收到的錯誤訊息,以及應採取的更正動作。
下列錯誤訊息表示您所移除的節點在它的 vfstab 檔中仍然擁有參照的叢集檔案系統。
Verifying that no unexpected global mounts remain in /etc/vfstab ... failed scinstall: global-mount1 is still configured as a global mount. scinstall: global-mount1 is still configured as a global mount. scinstall: /global/dg1 is still configured as a global mount. scinstall: It is not safe to uninstall with these outstanding errors. scinstall: Refer to the documentation for complete uninstall instructions. scinstall: Uninstall failed. |
要更正此項錯誤,請回到如何從叢集節點移除 Sun Cluster 軟體 並重複此程序。 在您重新執行 scinstall -r 指令之前,請確定您成功地完成程序中的步驟 6。
下列錯誤訊息表示您所移除的節點仍然列在磁碟裝置群組裡。
Verifying that no device services still reference this node ... failed scinstall: This node is still configured to host device service "service". scinstall: This node is still configured to host device service "service2". scinstall: This node is still configured to host device service "service3". scinstall: This node is still configured to host device service "dg1". scinstall: It is not safe to uninstall with these outstanding errors. scinstall: Refer to the documentation for complete uninstall instructions. scinstall: Uninstall failed. |