本章提供管理可影響整個叢集之項目的程序。
以下是本章所介紹程序的清單。
作業 |
如需相關說明,請參閱... |
---|---|
變更叢集的名稱 | |
列出節點 ID 及其對應的節點名稱 | |
容許或拒絕新節點將本身加到叢集中 | |
使用「網路時間通訊協定」(Network Time Protocol,NTP) 變更叢集的時間 | |
在以 SPARC 為基礎的系統上使節點顯示 OpenBoot PROM ok 提示符號,或在以 x86 為基礎的系統上使其進入啟動子系統 | |
變更專用主機名稱 | |
使叢集節點進入維護狀態 | |
使叢集節點離開維護狀態 | |
新增節點至叢集 | |
從叢集移除節點 |
如有必要,您可以在初次安裝之後變更叢集名稱。
成為叢集中任何節點的超級使用者。
鍵入 scsetup 指令。
# scsetup |
顯示 Main Menu。
若要變更叢集名稱,請鍵入8 (其他叢集特性)。
此時會顯示「其他叢集特性」功能表。
從功能表選取,接著依螢幕上出現的指示進行。
以下範例顯示了 scsetup(1M) 公用程式所產生的 scconf(1M) 指令,該指令用於變更為新叢集名稱 dromedary。
# scconf -c -C cluster=dromedary |
在安裝 Sun Cluster 期間,會自動為每個節點指定一個唯一的節點 ID 編號。指定給節點的節點 ID 號碼是依它第一次加入叢集的順序,一旦指定後,該號碼便不可以變更。節點 ID 編號通常用於錯誤訊息中識別與訊息相關的叢集節點。請使用這個程序來判斷節點 ID 與節點名稱之間的對應。
您不必是超級使用者也可以列示配置資訊。
使用 scconf(1M) 指令列出叢集配置資訊。
% scconf -pv | grep "Node ID" |
下列範例顯示節點 ID 指定。
% scconf -pv | grep “Node ID” (phys-schost-1) Node ID: 1 (phys-schost-2) Node ID: 2 (phys-schost-3) Node ID: 3 |
Sun Cluster 可讓您確定新節點是否可將自身增加至叢集,及使用何種驗證類型。您可以容許任何新節點透過公用網路加入叢集、拒絕新節點加入叢集,或指示可加入叢集的特定節點。可使用標準 UNIX 或 Diffie-Hellman (DES) 授權來驗證新節點。如果您選取 DES 授權,您還必須先配置所有必要的暗碼鍵,節點才能夠加入。請參閱 keyserv(1M) 與 publickey(4) 線上手冊,以取得更多資訊。
成為叢集中任何節點的超級使用者。
進入 scsetup(1M) 公用程式。
# scsetup |
顯示 Main Menu。
若要使用叢集認證,請鍵入 7 (新節點)。
會出現 New Nodes 功能表。
從功能表選取,接著依螢幕上出現的指示進行。
以下範例顯示產生自 scsetup 公用程式的 scconf 指令,可防止新機器加入到叢集。
# scconf -a -T node=. |
以下範例顯示產生自 scsetup 公用程式的 scconf 指令,可允許所有的新機器加入到叢集。
# scconf -r -T all |
以下範例顯示 scconf指令,這是產生自 scsetup 公用程式,可加入一個新機器到叢集。
# scconf -a -T node=phys-schost-4 |
以下範例顯示 scconf 指令,這是產生自 scsetup 公用程式,可將加入叢集的新節點重設到標準 UNIX 授權。
# scconf -c -T authtype=unix |
以下範例顯示 scconf 指令,這是產生自 scsetup 公用程式,以便對加入叢集的新節點使用 DES 授權。
# scconf -c -T authtype=des |
如果使用 DES 授權,您還必須先配置所有必要的暗碼鍵,節點才能夠加入叢集。請參閱 keyserv(1M) 和 publickey(4) 線上手冊,以取得更多資訊。
Sun Cluster 使用網路時間協定 (NTP) 保持叢集節點間的時間同步。當節點同步化自己的時間時,會依需要在叢集內進行自動調整。請參閱「Sun Cluster 概念指南 (適用於 Solaris 作業系統)」和「網路時間協定使用者指南」,以取得更多資訊。
如果您使用 NTP,請不要在啟動並執行叢集時調整叢集時間。其中包括互動式使用 date(1)、rdate(1M)、xntpd(1M) 或 svcadm(1M) 指令,或在 cron(1M) 程序檔中使用。
成為叢集中任何節點的超級使用者。
關閉叢集。
# scshutdown -g0 -y |
在 [目前的啟動參數] 畫面上,請確認節點顯示 ok 提示符號或 Select (b)oot or (i)nterpreter 提示符號。
透過將 boot(1M) 或 b 指令與 -x 選項搭配使用,來以非叢集模式啟動節點。
SPARC:
ok boot -x |
x86:
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -x |
在單一節點上,執行 date 指令來設定時間。
# date HHMM.SS |
在其他機器上,執行 rdate(1M) 指令,以使時間與該節點同步。
# rdate hostname |
將每一個節點重新開機來啟動叢集。
# reboot |
確認變更在所有的叢集節點都生效。
請在每一個節點上執行 date 指令。
# date |
如果您需要配置或變更 OpenBoot PROM 設定,則請使用此程序。
連接到終端機集線器。
# telnet tc_name tc_port_number |
指定終端機集線器的名稱。
指定終端機集線器上的通訊埠編號。通訊埠編號和配置相關聯。通常連接埠 2 與 3 (5002 及 5003) 適用於安裝在站點的第一個叢集。
依程序關閉叢集節點,方法為使用 scswitch(1M) 指令撤出所有資源或磁碟裝置群組,然後執行 shutdown。
# scswitch -S -h node[,...] # shutdown -g0 -y -i0 |
請勿在叢集主控台上使用 send brk 來關閉叢集節點。
執行 OBP 指令。
在安裝初始時,便會指定預設的專用主機名稱。預設的私有主機名稱格式為 clusternode< nodeid>-priv,例如:clusternode3-priv。請您唯有在專用主機名稱已在網域中使用時才去更動它。
請勿嘗試為新的專用主機名稱指定 IP 位址。叢集軟體會指定它們。
在叢集中的所有節點上,停用可能快取專用主機名稱的所有「資料服務」資源或其他應用程式。
# scswitch -n -j resource1, resource2 |
包括下列您停用的應用程式。
HA-DNS 與 HA-NFS 服務 (如果已經配置的話)。
所有已經自訂配置以使用專用主機名稱的應用程式。
任何用戶端用來私下交互連接的應用程式。
請參閱 scswitch(1M) 線上手冊與「Sun Cluster Data Services Planning and Administration Guide for Solaris OS」,以取得有關使用 scswitch 指令的資訊。
關閉叢集中每一節點上的「網路時間通訊協定」(NTP) 常駐程式。
如果您使用的是 Solaris 8 或 Solaris 9,請使用 xntpd 指令關閉網路時間協定 (NTP) 常駐程式。請參閱 xntpd(1M) 線上手冊,以取得有關 NTP 常駐程式的更多資訊。
# /etc/init.d/xntpd.cluster stop |
如果您使用的是 Solaris 10,請使用 svcadm 指令關閉網路時間協定 (NTP) 常駐程式。請參閱 svcadm(1M) 線上手冊,以取得有關 NTP 常駐程式的更多資訊。
# svcadm disable ntp |
執行 scsetup(1M) 公用程式,以變更相應節點的私有主機名稱。
唯有在叢集中的一個節點才需這麼做。
在選擇新的專用主機名稱時,請確定該名稱在叢集節點中是唯一的。
請從 Main Menu 選取 5、 Private Hostnames。
請從 Private Hostnames Menu 選取 1、Change a Private Hostname。
系統提示時,請回答問題。會向您詢問要變更私有主機名稱的節點的名稱 (clusternode < nodeid>-priv),以及新的私有主機名稱。
清除名稱服務快取記憶體。
在叢集的每一個節點上執行此工作。這可避免叢集應用程式和資料服務嘗試去存取舊的專用主機名稱。
# nscd -i hosts |
編輯每個節點上的 ntp.conf.cluster 檔案,將私有主機名稱變更為新的名稱。
您可使用偏好的編輯工具。
如果此步驟在安裝時便已完成,亦請記得移除已配置節點的名稱;在預設範本中有十六個預先配置好的節點。通常,每個節點上的 ntp.conf.cluster 檔案都是相同的。
請確認從所有叢集節點 ping 到的新專用主機名稱。
重新啟動 NTP 常駐程式。
在叢集的每一個節點上執行此工作。
如果您使用的是 Solaris 8 或 Solaris 9,請使用 xntpd 指令重新啟動 NTP 常駐程式。
# /etc/init.d/xntpd.cluster start |
如果您使用的是 Solaris 10,請使用 svcadm 指令重新啟動 NTP 常駐程式。
# svcadm enable ntp |
啟用在步驟 1 中停用的所有的資料服務資源和其他應用程式。
# scswitch -e -j resource1, resource2 |
請參閱 scswitch 線上手冊與「Sun Cluster Data Services Planning and Administration Guide for Solaris OS」,以取得有關使用 scswitch 指令的資訊。
以下範例在節點 phys-schost-2 上將私有主機名稱由 clusternode2-priv 變更為 clusternode4-priv。
[Disable all applications and data services as necessary.] phys-schost-1# /etc/init.d/xntpd stop phys-schost-1# scconf -p | grep node ... Cluster nodes: phys-schost-1 phys-schost-2 phys- schost-3 Cluster node name: phys-schost-1 Node private hostname: clusternode1-priv Cluster node name: phys-schost-2 Node private hostname: clusternode2-priv Cluster node name: phys-schost-3 Node private hostname: clusternode3-priv ... phys-schost-1# scsetup phys-schost-1# nscd -i hosts phys-schost-1# vi /etc/inet/ntp.conf ... peer clusternode1-priv peer clusternode4-priv peer clusternode3-priv phys-schost-1# ping clusternode4-priv phys-schost-1# /etc/init.d/xntpd start [Enable all applications and data services disabled at the beginning of the procedure.] |
在停止叢集節點的服務持續較長一段時間後,使節點進入維護狀態。這樣,在維護節點時便不會影響法定票數。若要使叢集節點進入維護狀態,則必須使用 scswitch(1M) 和 shutdown(1M) 關閉該節點。
請使用 Solaris shutdown 指令來關閉單一節點。只有在關閉整個叢集時,才使用 scshutdown 指令。
當叢集節點關閉並進入維護狀態時,所有配置為和節點有連接埠相連的法定裝置,它們的法定票數都會減一。當節點離開維護模式成為線上狀態時,節點與法定裝置的票數會加上一。
您需要使用 scconf(1M) 使叢集節點進入維護狀態。scsetup(1M) 公用程式不具有使法定裝置進入維護狀態的功能。
在要進入維護狀態的節點上成為超級使用者。
撤出此節點的任何資源群組和磁碟裝置群組。
# scswitch -S -h node[,...] |
從指定的節點撤出所有的裝置服務與資源群組。
指定您要用來切換資源群組及裝置群組的節點。
關閉您已撤出的節點。
# shutdown -g0 -y -i0 |
在叢集中的另一個節點上以超級使用者的身份登入,並使您在步驟 3 中關閉的節點進入維護狀態。
# scconf -c -q node=node,maintstate |
指定 scconf 指令的變更形式。
管理法定選項。
指定要變更之節點的節點名稱或節點 ID。
使節點進入維護狀態。
確認叢集節點現在已經進入維護狀態。
# scstat -q |
使之進入維護狀態的節點應具有值為 offline 的 Status,並且其 Present 和 Possible 法定票數應為 0 (零)。
下列範例使叢集節點進入維護狀態,同時確認結果。scstat -q 輸出顯示 phys-schost-1 的 Node votes 為 0 (零),而狀態為 Offline。Quorum Summary 應該也會顯示減少的票數。根據您的配置,Quorum Votes by Device 輸出可能也會指出某些法定磁碟裝置為離線。
[On the node to be put into maintenance state:] phys-schost-1# scswitch -S -h phys-schost-1 phys-schost-1# shutdown -g0 -y -i0 [On another node in the cluster:] phys-schost-2# scconf -c -q node=phys-schost-1,maintstate phys-schost-2# scstat -q -- Quorum Summary -- Quorum votes possible: 3 Quorum votes needed: 2 Quorum votes present: 3 -- Quorum Votes by Node -- Node Name Present Possible Status --------- ------- -------- ------ Node votes: phys-schost-1 0 0 Offline Node votes: phys-schost-2 1 1 Online Node votes: phys-schost-3 1 1 Online -- Quorum Votes by Device -- Device Name Present Possible Status ----------- ------- -------- ------ Device votes: /dev/did/rdsk/d3s2 0 0 Offline Device votes: /dev/did/rdsk/d17s2 0 0 Offline Device votes: /dev/did/rdsk/d31s2 1 1 Online |
若要使節點返回線上運作,請參閱如何使節點離開維護狀態。
請使用下列程序使節點恢復連線,並重新設定法定票數為預設值。對於叢集節點,預設法定票數為一。對於法定裝置,預設法定票數是 N-1,其中 N 為具有非零票數之節點的數目,這些節點和法定裝置之間有埠相連。
當節點進入維護狀態時,節點的法定票數會遞減一。所有配置為和節點之間有連接埠的法定裝置,都會使它們的法定票數遞減。當法定票數被重設且某個節點離開維護狀態時,節點的法定票數和法定裝置票數會遞增一。
請在節點已進入維護狀態、而您要使它離開維護狀態的任何時候,執行此程序。
如果您未指定 globaldev 或 node 選項,整個叢集的法定票數都會被重新設定。
成為叢集中任何節點的超級使用者,而不是在進入維護狀態的節點上。
您是否要在兩個節點的叢集中使節點離開維護狀態?
如果使用法定數目,請從不是處於維護狀態的節點重新設定叢集法定票數。
在重新啟動節點前,您必須從不是處於維護狀態的節點重新設定法定票數,否則系統可能會因等待法定數目而當掉不動。
# scconf -c -q node=node,reset |
指定 scconf 指令的變更形式。
管理法定選項。
請指定要重新設定的節點名稱,例如 phys-schost-1。
重設法定數目的變更旗號。
啟動您想要離開維護狀態的節點。
驗證法定票數。
# scstat -q |
離開維護狀態的節點應該為 online 狀態,並顯示適當的 Present and Possible 法定票數。
以下範例將叢集節點及其法定裝置的法定票數重設為其預設值,同時驗證結果。scstat -q 輸出顯示 phys-schost-1 的 Node votes 為 1,而狀態為 online。Quorum Summary 應該也會顯示增加的票數。
phys-schost-2# scconf -c -q node=phys-schost-1,reset |
於 phys-schost-1 上︰
SPARC:
ok boot -x |
x86:
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -x |
phys-schost-1# scstat -q -- Quorum Summary -- Quorum votes possible: 6 Quorum votes needed: 4 Quorum votes present: 6 -- Quorum Votes by Node -- Node Name Present Possible Status --------- ------- -------- ------ Node votes: phys-schost-1 1 1 Online Node votes: phys-schost-2 1 1 Online Node votes: phys-schost-3 1 1 Online -- Quorum Votes by Device -- Device Name Present Possible Status ----------- ------- -------- ------ Device votes: /dev/did/rdsk/d3s2 1 1 Online Device votes: /dev/did/rdsk/d17s2 1 1 Online Device votes: /dev/did/rdsk/d31s2 1 1 Online |
下表列出新增節點至現有叢集時執行的作業。若要正確完成此程序,請依下列順序執行下述作業。
表 7–2 對應作業:新增叢集節點至現有叢集
作業 |
如需相關說明,請參閱... |
---|---|
在節點上安裝主機配接卡,並確認現行叢集交互連接可支援新的節點 |
「Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS」 |
新增共用儲存體 |
「Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS」 |
新增節點至已授權的節點清單 - 使用 scsetup | |
在新叢集節點上安裝與配置軟體 - 安裝 Solaris 作業系統與 Sun Cluster 軟體 - 將節點配置成叢集的一部份 |
「Sun Cluster 軟體安裝指南(適用於 Solaris 作業系統)」中的第 2 章「安裝和配置 Sun Cluster 軟體」 |
下表列出從現有叢集移除節點時必須執行的作業。若要正確完成此程序,請依下列順序執行下述作業。
如果您的叢集執行 OPS 配置,請不要使用這個程序。此時,在 OPS 配置中移除節點可能會在重新啟動時造成節點混亂。
作業 |
如需相關說明,請參閱... |
---|---|
將所有資源群組及磁碟裝置群組從欲移除的節點移出。 - 使用 scswitch(1M) |
# scswitch -S -h from-node |
從所有資源群組移除節點 - 使用 scrgadm(1M) |
「Sun Cluster Data Services Planning and Administration Guide for Solaris OS」 |
從所有磁碟裝置群組移除節點 - 使用 scconf(1M)、metaset(1M) 和 scsetup(1M) |
如何從磁碟裝置群組移除節點 (Solstice DiskSuite/Solaris Volume Manager) SPARC: 如何從磁碟裝置群組移除節點 (VERITAS Volume Manager) 注意︰如果所需的次要節點數被配置為 2 個或更多,則必須將其減少至 1。 |
移除所有完全連接的法定裝置。 - 使用 scsetup。 |
注意︰如果您要從兩個節點的叢集移除一個節點,請勿移除法定裝置。
請注意,即使在下一個步驟中您必須在移除儲存裝置前先移除法定裝置,您仍可以在步驟完成後立即將法定裝置加入。 |
從節點移除所有完全連接的儲存裝置。 - 使用 devfsadm(1M)、scdidadm(1M)。 |
注意︰如果您要從兩個節點的叢集移除一個節點,請勿移除法定裝置。如何在擁有兩個以上節點連接的叢集中移除陣列與單一節點之間的連接 |
重新加入法定裝置 (僅新增到要保留在叢集中的節點)。 - 使用 scconf -a -q globaldev=d[n],node= node1,node=node2 | |
使要移除的節點進入維護狀態。 - 使用 scswitch(1M)、shutdown(1M) 和 scconf(1M) | |
移除要移除的節點之所有邏輯傳輸連接 (傳輸電纜與配接卡)。 - 使用 scsetup。 | |
移除與要移除的節點連接的所有法定裝置。 - 使用 scsetup、scconf(1M)。 | |
從叢集軟體配置移除節點 - 使用 scconf(1M)。 |
在新增機器至現有叢集之前,確定節點已正確安裝與配置了所有必要的硬體,其中包括專用叢集交互連接的良好實體連接。
如需有關硬體安裝資訊,請參閱「Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS」或與伺服器隨附的硬體文件。
此程序允許機器藉由在叢集中已授權的節點上加入其節點名稱,來完成本身在該叢集的安裝。
您必須是現行叢集成員的超級使用者,才能完成此程序。
請確定您已正確完成了新增與移除叢集節點之作業對應表中所有必需的硬體安裝與配置作業。
鍵入 scsetup 指令。
# scsetup |
顯示 Main Menu。
若要存取 New Nodes Menu,請在 Main Menu 鍵入 7。
若要修改授權清單,請在 New Nodes Menu 鍵入 3,指定可自行新增的機器名稱。
請依出現的提示訊息新增叢集中的節點名稱。系統會要求您輸入要新增的節點名稱。
確認作業成功執行。
如果無誤地完成作業,scsetup 公用程式會列印一張 “Command completed successfully” 訊息。
結束 scsetup 公用程式。
在新叢集節點上安裝與配置軟體
使用 scinstall 或 JumpStartTM 完成新節點的安裝與配置,如「Sun Cluster 軟體安裝指南(適用於 Solaris 作業系統)」中所述。
若要防止叢集中再增加任何新機器,請在 New Nodes Menu 鍵入 1。
請遵循 scsetup 提示。此選項告訴叢集要忽略所有來自公用網路上,嘗試要將本身加入叢集的所有新機器之請求。
以下範例顯示如何新增名為 phys-schost-3 的節點到現有叢集中的已授權節點清單。
[Become superuser and execute the scsetup utility.] # scsetup Select New nodes>Specify the name of a machine which may add itself. Answer the questions when prompted. Verify that the scconf command completed successfully. scconf -a -T node=phys-schost-3 Command completed successfully. Select Prevent any new machines from being added to the cluster. Quit the scsetup New Nodes Menu and Main Menu. [Install the cluster software.] |
如需有關增加叢集節點作業的完整清單,請參閱表 7–2「作業對應表:新增叢集節點」
若要將節點增加至現有的資源群組,請參閱「Sun Cluster Data Services Planning and Administration Guide for Solaris OS」。
請確定您已正確完成了新增與移除叢集節點中「增加與移除叢集結點」作業對應表中列出的所有必需的作業。
確認您已將節點從所有資源群組、磁碟裝置群組及法定裝置配置移除,並在繼續此程序前將它置於維護狀態。
在不同於要移除的節點叢集中的一個節點上成為超級使用者。
從叢集移除節點。
# scconf -r -h node=node-name |
使用 scstat(1M) 驗證節點是否已經移除。
# scstat -n |
您是否要從已移除的節點解除安裝 Sun Cluster 軟體?
如果是,請移至如何從叢集節點移除 Sun Cluster 軟體。或者,您可在節點上重新安裝 Solaris 軟體。
如果否,則請依照「Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS」中的說明將節點從叢集中實體移除,移除實體連接。
這個範例顯示如何從叢集移除節點 (phys-schost-2)。所有指令都是從叢集的另一個節點執行 (phys-schost-1)。
[Remove the node from the cluster:] phys-schost-1# scconf -r -h node=phys-schost-2 [Verify node removal:] phys-schost-1# scstat -n -- Cluster Nodes -- Node name Status --------- ------ Cluster node: phys-schost-1 Online |
若要從已移除的節點解除安裝 Sun Cluster 軟體,請參閱如何從叢集節點移除 Sun Cluster 軟體
如需有關硬體程序,請參閱「Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS」。
如需有關移除叢集節點作業的完整清單,請參閱表 7–3。
若要將節點增加至現有叢集,請參閱如何新增節點至已授權的節點清單。
使用此程序從具有三或四個節點連接中的單一叢集節點分離儲存陣列。
備份所有與欲移除之儲存陣列相關的資料庫表格、資料服務及容體。
判斷在要中斷連線的節點上所執行的資源群組與裝置群組。
# scstat |
必要時,將所有資源群組與裝置群組從要中斷連線的節點移出。
如果您的叢集在執行 Oracle Parallel Server/Real Application Clusters 軟體,請關閉正在節點執行的 Oracle Parallel Server/Real Application Clusters 資料庫實例,然後將群組移出節點。如需相關說明,請參閱 Oracle 資料庫管理指南。
# scswitch -S -h from-node |
使裝置群組進入維護狀態。
如需有關默許 Veritas 共用磁碟群組 I/O 活動的程序,請參閱您的 VxVM 文件。
如需有關使裝置群組進入維護狀態的程序,請參閱第 7 章, 管理叢集。
從裝置群組移除節點。
如果您使用的是 VxVM 或原始磁碟,請使用 scconf(1M) 指令移除裝置群組。
如果您使用 Solstice DiskSuite,則使用 metaset 指令移除裝置群組。
如果群組執行 HAStorage 或 HAStoragePlus,請將節點從資源群組的節點清單移除。
# scrgadm -a -g resource-group -h nodelist |
請參閱「Sun Cluster Data Services Planning and Administration Guide for Solaris OS」,以取得有關變更資源群組之節點清單的更多資訊。
當執行 scrgadm 時,資源類型、資源群組及資源特性名稱不需區分大小寫。
如果您要移除的儲存陣列是連接到節點的最後一個儲存陣列,請中斷節點與連接到此儲存陣列的集線器或切換器之間的光纖電纜連線 (否則,請省略此步驟)。
您是否想從要中斷節點的連線以移除主機配接卡?
如果是,關閉節點並關閉電源。
如果否,請跳至步驟 11。
從節點移除主機配接卡。
如需有關移除主機配接卡的的程序,請參閱節點隨附的說明文件。
開啟節點的電源,但不要啟動節點。
將節點開機進入非叢集模式。
SPARC:
ok boot -x |
x86:
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -x |
在下一個步驟中移除 Oracle Parallel Server/Real Application Clusters 軟體之前,節點必須處於非叢集模式,否則該節點將發生混亂,並可能導致資料可用性遺失。
SPARC:如果已經安裝了 Oracle Parallel Server/Real Application Clusters 軟體,請從您要中斷連線的節點移除 Oracle Parallel Server/Real Application Clusters 軟體套裝模組。
# pkgrm SUNWscucm |
如果您沒有將 Oracle Parallel Server/Real Application Clusters 軟體從要中斷連線的節點移除,當節點重新加入叢集時將發生混亂,並可能導致資料可用性遺失。
將節點開機進入叢集模式。
SPARC:
ok boot |
x86:
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b |
在節點上,藉由更新 /devices 及 /dev 項目來更新裝置名稱空間。
# devfsadm -C # scdidadm -C |
讓裝置群組重新上線。
如需有關如何使 VERITAS 共用磁碟群組上線的程序,請參閱您的 VERITAS Volume Manager 說明文件。
有關如何讓裝置群組上線的程序,請參閱使裝置群組進入維護狀態的程序。
在您從完整建立的叢集配置中斷節點之前,執行此程序以解除安裝 Sun Cluster 軟體。您可以利用此程序從叢集最後存留的節點上移除軟體。
若要從尚未加入叢集或仍然處於安裝模式的節點上移除 Sun Cluster 軟體,則請勿執行此程序。否則,請移至「Sun Cluster 軟體安裝指南(適用於 Solaris 作業系統)」。
請確定您已正確完成移除叢集節點的對應作業中所列的所有必備作業。
請參閱新增與移除叢集節點。
請確定在繼續這個程序前,您已從所有資源群組、裝置群組以及法定裝置配置移除節點、讓它進入維護狀態,並從叢集將它移除。
在您將移除的節點之外的主動叢集成員上成為超級使用者。
從使用中的叢集成員,將您要解除安裝的節點新增至叢集節點認證清單。
# scconf -a -T node=nodename |
加入
指定認證選項
指定要加入授權清單中的節點名稱。
或者,您可以使用 scsetup(1M) 公用程式。請參閱如何新增節點至已授權的節點清單,以取得相關程序。
成為要移除的節點上的超級使用者。
將節點重新啟動,進入非叢集模式。
SPARC:
# shutdown -g0 -y -i0ok boot -x |
x86:
# shutdown -g0 -y -i0 ... <<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -x |
在 /etc/vfstab 檔案中,除了 /global/.devices 全域裝載之外,移除所有全域裝載的檔案系統項目。
從節點移除 Sun Cluster 軟體。
從與任何 Sun Cluster 套件無關的目錄執行指令。
# cd / # scinstall -r |
請參閱 scinstall(1M) 線上手冊,以取得更多資訊。如果 scinstall 傳回錯誤訊息,請參閱未移除的叢集檔案系統項目。
若有傳輸電纜與傳輸接點,請從其他的叢集裝置上將它們斷線。
若要更正前面各節的錯誤訊息,請執行此程序。
嘗試將節點重新加入叢集。
# boot |
節點是否成功地重新加入叢集?
如果否,請繼續執行步驟 3。
如果是,請依照下列步驟從磁碟裝置群組移除節點。
如果節點成功地重新加入叢集,請從剩下的磁碟裝置群組中移除節點。
請執行如何從所有磁碟裝置群組移除節點中的程序。
從所有磁碟裝置群組移除節點後,請返回如何從叢集節點移除 Sun Cluster 軟體,並重複執行此程序。
如果節點無法重新加入叢集,請將節點的 /etc/cluster/ccr 檔重新命名為您所選的其他名稱,例如,ccr.old。
# mv /etc/cluster/ccr /etc/cluster/ccr.old |
請返回如何從叢集節點移除 Sun Cluster 軟體,並重複執行此程序。
本節說明當您執行 scinstall -r 指令時可能接收到的錯誤訊息,以及應採取的更正動作。
下列錯誤訊息表示您所移除的節點在它的 vfstab 檔中仍然擁有參照的叢集檔案系統。
Verifying that no unexpected global mounts remain in /etc/vfstab ... failed scinstall: global-mount1 is still configured as a global mount. scinstall: global-mount1 is still configured as a global mount. scinstall: /global/dg1 is still configured as a global mount. scinstall: It is not safe to uninstall with these outstanding errors. scinstall: Refer to the documentation for complete uninstall instructions. scinstall: Uninstall failed. |
若要更正此錯誤,請返回如何從叢集節點移除 Sun Cluster 軟體,並重複執行此程序。請確保您已成功完成了此程序中的步驟 6,然後再重新執行 scinstall -r 指令。
下列錯誤訊息表示您所移除的節點仍然列在磁碟裝置群組裡。
Verifying that no device services still reference this node ... failed scinstall: This node is still configured to host device service "service". scinstall: This node is still configured to host device service "service2". scinstall: This node is still configured to host device service "service3". scinstall: This node is still configured to host device service "dg1". scinstall: It is not safe to uninstall with these outstanding errors. scinstall: Refer to the documentation for complete uninstall instructions. scinstall: Uninstall failed. |