本章提供管理可影響整個叢集之項目的程序。
以下是本章介紹的程序列表。
作業 |
有關資訊,請進到 ... |
---|---|
變更叢集的名稱。 | |
列出節點 ID 及其對應的節點名稱。 | |
容許或拒絕新節點將本身加到叢集中。 | |
使用「網路時間通訊協定」(Network Time Protocol,NTP)設定叢集的時間。 | |
關閉節點並進入 OpenBootTM PROM。 |
如果必要,您可以在初次安裝之後變更叢集名稱。
成為叢集中某個節點的超級使用者(superuser)。
輸入 scsetup(1M) 公用程式。
# scsetup |
出現「主功能表」。
要變更叢集名稱,請輸入 6(其他叢集屬性)。
出現「其他叢集屬性」功能表。
從功能表進行選擇,接著依螢幕上出現的指示進行。
以下範例顯示產生自 scsetup 公用程式的 scconf(1M) 指令,可用來變更新叢集名稱 dromedary。
# scconf -c -C cluster=dromedary |
安裝 Sun Cluster 時,每一個節點會被自動指定一個唯一的節點 ID 號碼。指定給節點的節點 ID 號碼是依它第一次加入叢集的順序,一旦指定後,該號碼便不可以變更。節點 ID 號碼通常用於錯誤訊息中識別與訊息相關的叢集節點。請使用這個程序來判斷節點 ID 與節點名稱之間的對應。
您不必是超級使用者(superuser)便可以列示配置資訊。
下列範例顯示節點 ID 指定。
% scconf -pv | grep "Node ID" (phys-schost-1) Node ID: 1 (phys-schost-2) Node ID: 2 (phys-schost-3) Node ID: 3 |
Sun Cluster 供您判斷新節點本身是否可加到叢集中以及用哪一種類型的辨證。您可以容許任何新節點透過公用網路加入叢集、拒絕新節點加入叢集、或指示可加入叢集的特定節點。可使用標準 UNIX 或 Diffie-Hellman(DES)辨證來辨證新節點。如果您選取 DES 辨證,您還必須先配置所有必要的暗碼鍵,節點才能夠加入。請參閱 the keyserv(1M) 及 publickey(4) 線上援助頁來取得詳細資訊。
成為叢集中某個節點的超級使用者(superuser)。
輸入 scsetup(1M) 公用程式。
# scsetup |
出現「主功能表」。
要使用叢集辨證,請輸入 5(新節點)。
出現「新節點」功能表。
從功能表進行選擇,接著依螢幕上出現的指示進行。
以下範例顯示產生自 scsetup 公用程式的 scconf(1M) 指令,可防止新機器加入到叢集。
# scconf -a -T node=. |
以下範例顯示產生自 scsetup 公用程式的 scconf 指令,可容許所有的新機器加入到叢集。
# scconf -r -T all |
以下範例顯示產生自 scsetup 公用程式的 scconf 指令,可加入一個新機器叢集。
# scconf -a -T node=phys-schost-4 |
以下範例顯示產生自 scsetup 公用程式的 scconf 指令,可將加入叢集之新節點回復到標準 UNIX 辨證。
# scconf -c -T authtype=unix |
以下範例顯示產生自 scsetup 公用程式的 scconf 指令,以便對加入叢集的新節點使用 DES DES 辨證。
# scconf -c -T authtype=des |
如果使用 DES 辨證,您還必須先配置所有必要的暗碼鍵,節點才能夠加入叢集。請參閱 the keyserv(1M) 及 publickey(4) 線上援助頁來取得詳細資訊。
Sun Cluster 使用「網路時間通訊協定」(Network Time Protocol,NTP)來維護叢集節點之間的同步化。當節點調整自己的時間時,如有必要,便會在叢集自動調整。 請參閱 Sun Cluster 3.0 概念 文件以及 網路時間通訊協定使用手冊來取得詳細資訊。
如果您使用 NTP,請不要在叢集已經啟動並執行時調整叢集時間。這些方法包括以互動方式或在 cron(1M) script 中使手 date(1)、rdate(1M) 或 xntpdate(1M) 指令。
成為叢集中某個節點的超級使用者(superuser)。
關閉叢集。
# scshutdown -g0 -y |
將每一個節點啟動非叢集節點。
ok boot -x |
在某一個節點上,執行 date(1) 指令來設定日期時間。
# date HHMMSS |
在另一個機器上,使用 rdate(1M) 指令來使時間和該節點同步。
# rdate hostname |
將每一個節點重新開機來啟動叢集。
# reboot |
確認變更在所有的叢集節點都生效。
請在每一個節點上執行 date(1M) 指令。
# date |
如果您需要配置或變更 OpenBoot PROM 設定值,請使用這個程序。
連到終端機集中站埠。
# telnet tc_name tc_port_number |
指定終端機集中站的名稱。
指定終端機集中站上的連接埠號。連接埠號和配置相關聯。通常連接 2 與 3(5002 及 5003)用於安裝在站點的第一個叢集。
使用 scswitch(1M) 指令來依程序關閉叢集節點來移除任何資源或磁碟裝置群組,接著使用 shutdown(1M) 來使節點進入 OBP 提示。
# scswitch -S -h node # shutdown -g 0 -y |
傳送中斷訊號到節點。
telnet> send brk |
執行 OpenBoot PROM 指令。
下表列示新增節點至現有叢集時執行的作業。
表 6-2 作業指引:新增節點
作業 |
有關資訊,請進到 ... |
---|---|
新增叢集交互連接至新節點。 -安裝主機配接卡、新增傳送中繼連接、電纜與交互連接。 |
Sun Cluster 3.0 Hardware Guide - 新增並取代叢集交互連接與公用硬體 |
新增共用儲存 |
Sun Cluster 3.0 Hardware Guide - 安裝並取代 StorEdge MultiPack 外殼 - 安裝並取代 StorEdge D1000 磁碟陣列 - 安裝並取代 StorEdge A5x00 磁碟陣列 |
新增節點至已授權的節點列表 - 使用 scsetup。 |
Sun Cluster 3.0 系統管理手冊 -如何新增叢集節點 |
在新叢集節點安裝與配置軟體 - 安裝 Solaris 作業環境與 Sun Cluster 軟體 - 將節點配置成叢集的一部份 |
Sun Cluster 3.0 安裝手冊 -安裝與配置 Sun Cluster 軟體 |
在新增機器到現有叢集之前,請確定節點已正確安裝並配置所有所有必要的軟體及硬體,包括與專用叢集交互連接之間的良好實體連線,如 "新增節點" 作業指引中指示的那樣。 請參閱 Sun Cluster 3.0 安裝手冊 以及 scinstall(1M) 線上援助頁來取得與軟體安裝相關的詳細資訊。關於硬體安裝,請參閱 Sun Cluster 3.0 Hardware Guide 或附隨伺服器一起出貨的硬體文件。
成為現行叢集成員節點的超級使用者(superuser)。
執行 scsetup 公用程式。
# scsetup |
出現「主功能表」。
在「主功能表」輸入 5 來存取「新節點功能表」選項。
在「新節點功能表」輸入 3(指定機器名稱)來修改己授權列表。
指定可新增本身之機器的名稱。
請依出現的提示新增叢集節點。將會要求您輸入要新增的節點的名稱。
確認節點已經成功新增到已授權列表。
# scconf -p | grep "Cluster new node" |
以下範例顯示如何新增名為 phys-schost-3 的節點到現有的叢集。
[Become a superuser.] [Execute scsetup utility.] # scsetup *** Main Menu *** Please select from one of the following options: Option: 5 *** New Nodes Menu *** Please select from one of the following options: ... 3) Specify the name of a machine which may add itself ... Option: 3 >>> Specify a Machine which may Install itself into the Cluster <<< ... Is it okay to continue (yes/no) [yes]? <Return> Name of the host to add to the list of recognized machines? phys-schost-3 Is it okay to proceed with the update (yes/no) [yes]? <Return> scconf -a -T node=phys-schost-3 Command completed successfully. [Quit the scsetup New Nodes Menu and Main Menu:] ... Option: q [Verify the node has been added.] # scconf -p | grep "Cluster new" Cluster new node authentication: unix Cluster new node list: phys-schost-3 |
Sun Cluster 3.0 安裝手冊:安裝與配置 Sun Cluster 軟體。
下表列出從現有叢集移除節點時必須執行的作業。
表 6-3 作業指引:移除叢集節點
作業 |
有關資訊,請進到 ... |
---|---|
使要移除的節點進入維護狀態。 - 使用 shutdown 與 scconf |
Sun Cluster 3.0 系統管理手冊: Chapter 4, Administering Quorum - 如何使叢集節點進入維護狀態 |
從所有資源群組移除節點 - 使用 scrgadm |
Sun Cluster 3.0 Data Services Installation and Configuration Guide: Chapter 9, Administering Data Service Resources -如何現有的資源群組移除節點 |
從其節點為成員的全部裝置群組中移除節點 - 使用容體管理者指令 |
Sun Cluster 3.0 系統管理手冊: 第 3 章,管理整體裝置與叢集檔案系統 - 如何從磁碟裝置群組移除節點(SDS) - 如何從磁碟裝置群組移除節點(VxVM) |
移除所有至已移除節點的邏輯傳輸連線 - 使用 scsetup |
Sun Cluster 3.0 系統管理手冊: 第 5 章,管理叢集網路 - 如何移除叢集傳送電纜與傳送配接卡
如要從節點移除實體硬體,請參閱 Sun Cluster 3.0 Hardware Guide:第 3 章,安裝與維護叢集交互連接與公用網路硬體。 |
移除所有共用已移除節點的 quorum 裝置 - 使用 scsetup |
Sun Cluster 3.0 系統管理手冊: 第 4 章,管理 Quorum - 如何移除 Quorum 裝置 |
從叢集軟體配置移除節點 - 使用 scconf |
Sun Cluster 3.0 系統管理手冊:第 6 章,管理叢集 - 如何移除叢集節點 |
從節點與叢集移除必要的共用儲存 - 依容體管理者文件以及硬體手冊中的程序執行 |
SDS 或 VxVM 管理手冊, Sun Cluster 3.0 Hardware Guide: - 如何移除 StorEdge MultiPack 裝置 - 如何移除 StorEdge D1000 Disk Array - 如何移除 StorEdge A5x00 Disk Array |
這是從叢集移除節點的處理中必須完成的最後一個軟體配置程序。在開始這個程序前,您必須完成 "移除叢集節點" 作業指引列出的必要作業。完成這個程序後,請依 Sun Cluster 3.0 Hardware Guide 中的敘述移除硬體連接。
成為叢集中某個節點的超級使用者(superuser)。
確定節點已經進入維護狀態而且從所有資源群組、裝置群組以及 quorum 裝置配置移除,再繼續這個程序。
判斷叢集中的啟動磁碟。
# scconf -pvv | grep Local_Disk |
識別叢集中那些開機磁碟連接到已移除的節點。
# scdidadm -L did-name |
移除各個開機磁碟的 localonly 旗號。
# scconf -c -D name=devicename,localonly=false |
從所有的原始磁碟裝置群組移除其成員的節點。
必須對每一個磁碟裝置群組完成這個步驟。
# scconf -pvv | grep nodename | grep Device # scconf -r -D name=devicename,nodelist=nodename |
從叢集移除節點。
# scconf -r -h node=nodename |
使用 scstat 確認節點移除成功。
# scstat -n |
從叢集移除裝置之後,您必須在移除的主機上重安新安裝 Solaris 作業環境,來使它在任何的容量中重新運作。
這個範例顯示如何從叢集移除節點(phys-schost-2)。
[Become superuser on any node.] [Determine the boot disks on the node:] # scconf -pvv | grep Local_Disk (dsk/d4) Device group type: Local_Disk (dsk/d3) Device group type: Local_Disk # scdidadm -L d4 ... 4 phys-schost-2:/dev/rdsk/c1t3d0 /dev/did/rdsk/d4 [Remove the localonly flag:] # scconf -c -D name=dsk/d4,localonly=false [Remove the node from all raw disk device groups:] # scconf -pvv | grep phys-schost-2 | grep Device (dsk/d4) Device group node list: phys-schost-2 (dsk/d2) Device group node list: phys-schost-1, phys-schost-2 (dsk/d1) Device group node list: phys-schost-1, phys-schost-2 # scconf -r -D name=dsk/d4,nodelist=phys-schost-2 # scconf -r -D name=dsk/d2,nodelist=phys-schost-2 # scconf -r -D name=dsk/d1,nodelist=phys-schost-2 [Remove the node from the cluster:] # scconf -r -h node=phys-schost-2 [Verify node removal:]# scstat -n -- Cluster Nodes -- Node name Status --------- ------ Cluster node: phys-schost-1 Online |
Sun Cluster 3.0 Hardware Guide:
如何移除 StorEdge MultiPack Enclosure
如何移除 StorEdge D1000 Disk Array
如何移除 StorEdge A5x00 Disk Array