Sun Cluster 3.0 5/02 版次注意事項

從 Sun Cluster 升級為 Sun Cluster 3.0 軟體

下列升級程序包含從 Sun Cluster 3.0 12/01 軟體安裝手冊 版次以來的程序變更與更正。

若要將 Sun Cluster 2.2 升級為 Sun Cluster 3.0 5/02 軟體,請執行下列程序,而不要執行收錄於 Sun Cluster 3.0 12/01 軟體安裝手冊 中的版本。

如何升級叢集軟體套件

  1. 成為叢集節點的超級使用者。

  2. 如果您是使用 CD-ROM 進行安裝,請將 Sun Cluster 3.0 5/02 CD-ROM 插入節點的 CD-ROM 光碟機內。

    如果容體常駐程式 vold(1M) 為執行狀態而且配置可管理 CD-ROM 裝置,則會自動將 CD-ROM 裝載到 /cdrom/suncluster_3_0_u3 目錄。

  3. 變更至 /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages 目錄。


    # cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages
    

  4. 如果您的容體管理者是 Solstice DiskSuite,請在每一個節點上安裝最新的 Solstice DiskSuite 仲裁者套件 (SUNWmdm)。

    1. 新增 SUNWmdm 套件。


      # pkgadd -d .SUNWmdm
      

    2. 重新啟動節點。


      # shutdown -g0 -y -i6
      

    3. 在另一個節點上重複上述步驟。

  5. 重新配置仲裁者。

    1. 決定哪一個節點具有您要新增仲裁者主機之磁碟組的所有權。


      # metaset -s setname
      
      -s setname

      指定磁碟組名稱

    2. 如果磁碟組不屬於任何一個節點,請先取得該磁碟組的所有權。


      # metaset -s setname -t
      
      -t

      取得磁碟組的所有權

    3. 重新建立仲裁者。


      # metaset -s setname -a -m mediator-host-list
      
      -a

      新增至磁碟組

      -m mediator-host-list

      指定要加入成為磁碟組仲裁者主機的節點名稱

    4. 對每一個磁碟組重複進行上述步驟。

  6. 在每一個節點上,關閉 rpc.pfmd 常駐程式。


    # /etc/init.d/initpmf stop
    

  7. 將第一個節點升級為 Sun Cluster 3.0 5/02 軟體。

    這些程序將視此節點為第一個安裝的節點。

    1. 在要升級的第一個節點上,切換至 /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools 目錄。


      # cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools
      

    2. 升級叢集軟體框架。


      # ./scinstall -u begin -F
      
      -F

      指定這是叢集內第一個安裝的節點

      請參閱 scinstall(1M) 線上援助頁,以取得詳細資訊。

    3. 在第一個節點上安裝所有的 Sun Cluster 修補程式。

      請參閱 Sun Cluster 3.0 5/02 版次注意事項,以得知修補程式和安裝指示的位置。

    4. 重新啟動節點。


      # shutdown -g0 -y -i6
      

      當第一個節點重新開機進入叢集模式時,它會建立叢集。

  8. 將第二個節點升級為 Sun Cluster 3.0 5/02 軟體。

    1. 在第二個節點上,切換至 /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools 目錄。


      # cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools
      

    2. 升級叢集軟體框架。


      # ./scinstall -u begin -N node1
      
      -N node1

      指定叢集中第一個安裝的節點名稱,不是要安裝的第二個節點的名稱

      請參閱 scinstall(1M) 線上援助頁,以取得詳細資訊。

    3. 在第二個節點上安裝所有的 Sun Cluster 修補程式。

      請參閱 Sun Cluster 3.0 5/02 版次注意事項,以得知修補程式和安裝指示的位置。

    4. 重新啟動節點。


      # shutdown -g0 -y -i6
      

  9. 在兩個節點均重新啟動之後,從任一節點確認兩個節點均為叢集成員。


    -- Cluster Nodes --
                       Node name      Status
                       ---------      ------
      Cluster node:    phys-schost-1  Online
      Cluster node:    phys-schost-2  Online

    請參閱 scstat(1M) 線上援助頁,以取得有關顯示叢集狀態的詳細資訊。

  10. 選擇要成為法定裝置的共用磁碟。

    您可以使用這兩個節點共用的任何磁碟作為法定裝置。 在任一節點上,使用 scdidadm(1M) 指令判斷共用磁碟的裝置 ID (DID) 名稱。您是在 步驟 5 中指定此裝置名稱,即使用 -q globaldev=DIDname 選項來scinstall


    # scdidadm -L
    

  11. 配置共用的法定裝置。

    1. 啟動 scsetup(1M) 公用程式。


      # scsetup
      

      出現「Initial Cluster Setup」畫面。

      如果法定數目的設定程序被中斷或無法順利完成,請重新執行 scsetup

    2. 在「Do you want to add any quorum disks?」的提示中,配置共用的法定裝置。

      兩個節點的叢集會一直維持安裝模式,直到配置了共用法定裝置為止。等 scsetup 公用程式配置法定裝置之後,便會顯示「Command completed successfully」。

    3. 在「Is it okay to reset "installmode"?」提示訊息出現時,回答 Yes

      scsetup 公用程式設定叢集的法定配置與票數之後,便會顯示「Cluster initialization is complete」訊息,且公用程式會回到 Main Menu。

    4. 結束 scsetup 公用程式。

  12. 在任何一個節點上,檢查裝置與節點的法定配置。

    您不需是超級使用者便能執行這個指令。


    % scstat -q
    

  13. 在任意節點上,確認已取消了叢集安裝模式。

    您不必是超級使用者,才能夠指定這個指令。


    % scconf -p | grep 'Cluster install mode:'
    Cluster install mode:                                  disabled

  14. 更新目錄路徑。

    移至 Sun Cluster 3.0 12/01 軟體安裝手冊 中的「如何更新根環境」。

範例-從 Sun Cluster 2.2 升級為 Sun Cluster 3.0 5/02 軟體 - 開始程序

下列範例顯示將兩個節點的叢集從 Sun Cluster 2.2 升級至 Sun Cluster 3.0 5/02 軟體的開始程序。叢集節點名稱是 phys-schost-1 (第一個安裝的節點),以及 phys-schost-2 (加入 phys-schost-1 所建立的叢集)。 容體管理者是 Solstice DiskSuite,且兩個節點都是用來做為磁碟組 schost-1 的仲裁者主機。


(Install the latest Solstice DiskSuite mediator package
on each node)
# cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages
# pkgadd -d . SUNWmdm
 
(Restore the mediator)
# metaset -s schost-1 -t
# metaset -s schost-1 -a -m phys-schost-1 phys-schost-2
 
(Shut down the rpc.pmfd daemon)
# /etc/init.d/initpmf stop
 
(Begin upgrade on the first node and reboot it)
phys-schost-1# cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools
phys-schost-1# ./scinstall -u begin -F
phys-schost-1# shutdown -g0 -y -i6
 
(Begin upgrade on the second node and reboot it)
phys-schost-2# cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools
phys-schost-2# ./scinstall -u begin -N phys-schost-1
phys-schost-2# shutdown -g0 -y -i6
 
(Verify cluster membership)
# scstat
 
(Choose a shared disk and configure it as the quorum
device)
# scdidadm -L
# scsetup
Select Quorum>Add a quorum disk
 
(Verify that the quorum device is configured)
# scstat -q
 
(Verify that the cluster is no longer in install
mode)
% scconf -p | grep 'Cluster install mode:'
Cluster install mode:                                  disabled

如何完成升級叢集軟體

本程序完成 scinstall(1M) 升級程序 (始於 "如何升級叢集軟體套件")。請在叢集的每一個節點上執行這些步驟。

  1. 成為叢集中每一個節點的超級使用者。

  2. 您的容體管理者是否為 VxVM?

    • 如果不是,請至 步驟 3

    • 如果是,請安裝 VxVM 及所有的 VxVM 修補程式,並建立根磁碟群組 (rootdg),如同您在進行全新安裝時所做的一般。

      • 若要安裝 VxVM 並封裝根磁碟,請執行 Sun Cluster 3.0 12/01 軟體安裝手冊 中「如何安裝 VERITAS Volume Manager 軟體與封裝根磁碟」的程序。若要鏡像根磁碟,請執行 Sun Cluster 3.0 12/01 軟體安裝手冊 中「如何對封裝根磁碟進行鏡像」的程序。

      • 若要在本機的非根磁碟上安裝 VxVM 並建立 rootdg,請執行 Sun Cluster 3.0 12/01 軟體安裝手冊 中「如何只安裝 VERITAS Volume Manager 軟體」與「如何在非根磁碟上建立 rootdg 磁碟群組」的程序。

  3. 您是否要升級 Sun Cluster HA for NFS?

    如果是的話,請至 步驟 4

    如果不是,請至 步驟 5

  4. 完成 Sun Cluster 3.0 軟體的升級,並轉換 Sun Cluster HA for NFS 配置。

    如果您不要升級 Sun Cluster HA for NFS,請改執行 步驟 5

    1. 將 Sun Cluster 3.0 Agents 5/02 CD-ROM 插入節點的 CD-ROM 光碟機內。

      此步驟是假設容體常駐程式 vold(1M) 為執行狀態,而且配置可管理 CD-ROM 裝置。

    2. 完成該節點上的叢集軟體升級。


      # scinstall -u finish -q globaldev=DIDname \
      -d /cdrom/scdataservices_3_0_u3 -s nfs
      
      -q globaldev=DIDname

      指定法定裝置的裝置 ID (DID) 名稱

      -d /cdrom/scdataservices_3_0_u3

      指定 CD-ROM 影像的目錄位置

      -s nfs

      指定要配置的 Sun Cluster HA for NFS 資料服務


      註解 -

      可能會產生類似下列的錯誤訊息。 您可以忽略它。


      ** Installing Sun Cluster - Highly Available NFS Server **
      Skipping "SUNWscnfs" - already installed


    3. 退出 CD-ROM。

    4. 在另一個節點上重複 步驟 a步驟 c

      在兩個節點上均完成時,會停用叢集安裝模式,而且指定所有的法定票數。

    5. 請跳到 步驟 6

  5. 完成各節點上 Sun Cluster 3.0 軟體的升級工作。

    如果您要升級 Sun Cluster HA for NFS,則改為執行 步驟 4


    # scinstall -u finish -q globaldev=DIDname
    
    -q globaldev=DIDname

    指定法定裝置的裝置 ID (DID) 名稱

  6. 如果您要升級 Sun Cluster HA for NFS 以外的任何資料服務,請配置那些資料服務的資源,如同進行全新安裝時所做的一般。

    請參閱 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide 以瞭解程序。

  7. 如果您的容體管理者是 Solstice DiskSuite,請在任何一個節點上將之前的磁碟裝置群組啟動成為線上。


    # scswitch -z -D disk-device-group -h node
    
    -z

    執行切換

    -D disk-device-group

    指定磁碟裝置群組的名稱,這對 Solstice DiskSuite 軟體而言與磁碟組名稱相同

    -h node

    指定作為磁碟裝置群組的主要叢集節點的名稱

  8. 在任一節點,啟動之前的資料服務資源群組成為線上。

    此時,Sun Cluster 2.2 邏輯主機已經轉換成 Sun Management Center 3.0 資源群組,而且邏輯主機的名稱後面也會加上 -lh。例如,名為 lhost-1 的邏輯主機會升級為名為 lhost-1-lh 的資源群組。請在以下指令內使用這些轉換過的資源群組名稱。


    # scswitch -z -g resource-group -h node
    
    -g resource-group

    指定要啟動的資源群組的名稱

    您可使用 scrgadm -p 指令顯示叢集內所有資源類型和資源群組的清單。scrgadm -pv 指令不僅會將清單顯示出來,同時會顯示其它詳細資訊。

  9. 如果您是使用 Sun Management Center 來監視您的 Sun Cluster 配置,請安裝 Sun Management Center 的 Sun Cluster 模組。

    1. 確定您是使用最新版的 Sun Management Center。

      請參閱 Sun Management Center 文件,以取得安裝或升級程序的詳細資訊。

    2. 依照 Sun Cluster 3.0 12/01 軟體安裝手冊 中「Sun Cluster 監視的安裝需求」的準則與程序,安裝 Sun Cluster 模組套件。

  10. 確認所有的節點均已加入叢集。

    請至 Sun Cluster 3.0 12/01 軟體安裝手冊 中的 "如何確認叢集成員"。

範例-從 Sun Cluster 2.2 升級為 Sun Cluster 3.0 5/02 軟體 - 完成程序

下列範例顯示將兩個節點的叢集從 Sun Cluster 2.2 升級為 Sun Cluster 3.0 5/02 軟體的完成程序。 叢集節點的名稱為phys-schost-1 以及 phys-schost-2,裝置群組名稱為 dg-schost-1 and dg-schost-2,而資料服資源群組的名稱為 lh-schost-1lh-schost-2scinstall 指令會自動轉換 Sun Cluster HA for NFS 的配置。


(Finish upgrade on each node)
phys-schost-1# scinstall -u finish -q globaldev=d1 \
-d /cdrom/scdataservices_3_0_u3 -s nfs
phys-schost-2# scinstall -u finish -q globaldev=d1 \
-d /cdrom/scdataservices_3_0_u3 -s nfs
 
(Bring device groups and data service resource groups
on each node online)
phys-schost-1# scswitch -z -D dg-schost-1 -h phys-schost-1
phys-schost-1# scswitch -z -g lh-schost-1 -h phys-schost-1
phys-schost-1# scswitch -z -D dg-schost-2 -h phys-schost-2 
phys-schost-1# scswitch -z -g lh-schost-2 -h phys-schost-2