Sun Cluster 3.1 8/05 版本說明 (適用於 Solaris 作業系統)

已知問題和錯誤

下列已知問題和錯誤會影響 Sun Cluster 3.1 8/05 版次的作業。

啟動裝置為多重路徑時,scvxinstall 將建立不正確的 vfstab 項目 (4639243)

問題摘要︰ 啟動裝置為多重路徑時,scvxinstall 將建立不正確的 /etc/vfstab 項目。

解決方法︰ 執行 scvxinstall 並選擇進行封裝。當顯示以下訊息時,請鍵入 Ctrl-C 以中斷重新啟動:


This node will be re-booted in 20 seconds. Type Ctrl-C to abort.

編輯 vfstab 項目以便 /global/.devices 使用 /dev/{r}dsk/cXtXdX 名稱,而非 /dev/did/{r}dsk 名稱。此修訂的項目使 VxVM 能夠將其識別為根磁碟。重新運行 scvxinstall 並選擇封裝。vfstab 檔案具備所需的更新。允許重新啟動執行。封裝正常進行。

Procedure如何校正多重路徑啟動裝置的 /etc/vfstab 錯誤

步驟
  1. 執行 scvxinstall 並選擇進行封裝。

    系統將顯示以下訊息:


    This node will be re-booted in 20 seconds.  Type Ctrl-C to abort.
  2. 中斷重新啟動。


    Ctrl-C
  3. 編輯 /etc/vfstab 項目以便 /global/.devices 使用 /dev/{r}dsk/cXtXdX 名稱而非 /dev/did/{r}dsk 名稱。

    此修訂的項目使 VxVM 能夠將其識別為根磁碟。

  4. 重新執行 scvxinstall 並選擇進行封裝。

    /etc/vfstab 檔案包含必要的更新。允許重新啟動執行。封裝正常進行。

SAP liveCache 停止方法逾時 (4836272)

問題摘要︰ Sun Cluster HA for SAP liveCache 資料服務使用 dbmcli 指令啟動和停止 liveCache。如果您執行的是 Solaris 9,則當叢集節點的公用網路發生故障時,網路服務可能會變得無法使用。

解決方法︰ 將 publickey 資料庫的以下項目之一包含在可以作為 liveCache 資源之主要節點的各個節點的 /etc/nsswitch.conf 檔案中:

publickey: 
publickey:  files
publickey:  files [NOTFOUND=return] nis 
publickey:  files [NOTFOUND=return] nisplus

除「用於 SAP liveCache 的 Sun Cluster 資料服務指南 (適用於 Solaris OS)」中記錄的更新外,加入以上項目之一,會確保 su 指令和 dbmcli 指令不參考 NIS/NIS+ 名稱服務。繞過 NIS/NIS+ 名稱服務會確保在網路發生故障期間資料服務正確啟動與停止。

nsswitch.conf 需求不適用於 passwd 資料庫 (4904975)

問題摘要「Sun Cluster Data Service for SAP liveCache Guide for Solaris OS」中的「Preparing the Nodes and Disks」nsswitch.conf 的需求不適用於 passwd 資料庫的項目。如果滿足這些需求,則當公用網路發生故障時,su 指令可能會在可以控制 liveCache 資源的每個節點上當機。

解決方法︰ 在每個可以控制 liveCache 資源的節點上,確保 passwd 資料庫的 /etc/nsswitch.conf 檔案中的項目如下:

passwd: files nis [TRYAGAIN=0]

sccheck 當機 (4944192)

問題摘要︰ 如果從多個節點同時啟動,sccheck 可能掛機。

解決方法︰ 不要從任何向多個節點傳送指令的多重主控台啟動 scchecksccheck 運行可以重疊,但不應同時啟動。

連結至不正確的 Java 版本的 Java 二進位檔案導致 HADB 代理程式發生故障 (4968899)

問題摘要︰ 目前,HADB 資料服務不使用 JAVA_HOME 環境變數。因此,從 HADB 資料服務呼叫 HADB 時,HADB 會從 /usr/bin/ 中取得 Java 二進位檔案。/usr/bin/ 中的 Java 二進位檔案需要連結至 HADB 資料服務相應的 Java 1.4 版本以及更高版本,才能正確工作。

解決方法︰ 如果您無意變更提供的預設版本,請執行以下程序。作為範例,此解決方案假設 /usr/j2se 目錄即為最新的 Java 版本 (例如 1.4 及更高版本) 的位置。

  1. 如果在 /usr/ 目錄中存在名為 java/ 的目錄,將其移至一個臨時的位置。

  2. /usr/ 目錄將 /usr/bin/java 和所有其他 Java 相關的二進位連結到適當的 Java 版本。


    # ln -s j2se java
    

如果您不想變更提供的預設版本,請使用 /opt/SUNWappserver7/SUNWhadb/4/bin/hadbm 中適當的 Java 版本 (J2SE 1.4 及更高版本) 指定 JAVA_HOME 環境變數。

增加新的叢集節點需要重新啟動叢集 (4971299)

問題摘要︰ 在執行 Sun Cluster Support for Oracle Real Application Clusters 使用 VxVM 叢集功能的叢集中增加節點時,在其他節點上執行的叢集功能無法識別新的節點。

解決方法︰ 對此問題的修正預期將由 VERITAS 在 VxVM 3.5 MP4 和 VxVM 4.0 MP2 中提供。目前已提供針對 VxVM 4.1 的修正。

若要在尚未提供代碼修正時校正此問題,請重新啟動 Oracle 資料庫並重新啟動叢集節點。此步驟會同步 Oracle UDLM 並更新 VxVM 叢集功能,以識別增加的節點。


備註 –

執行此步驟前,請勿在新節點上安裝和配置 Sun Cluster Support for Oracle Real Application Clusters。


  1. 從剛增加的節點之外的叢集節點關閉 Oracle Real Application Clusters 資料庫。

  2. 重新啟動在其上關閉 Oracle 資料庫的同一個節點。


    # scswitch -S -h thisnode
    # shutdown -g0 -y -i6
    

    請等待至該節點已完全重新啟動回叢集中,然後再繼續下一步。

  3. 重新啟動 Oracle 資料庫。

  4. 在其餘的每個執行 Sun Cluster Support for Oracle Real Application Clusters 的節點上重複步驟 1 至步驟 3。

    • 如果單一節點能夠處理 Oracle 資料庫工作負荷量,則您可以在多個節點上同時執行這些步驟。

    • 如果需要多個節點來承擔資料庫工作負荷量,請每次只在一個節點上執行這些步驟。

HA-DB 在無備援的情況下重新初始化 (4973982)

問題摘要︰ 由於錯誤 4974875,無論何時執行自動回復,資料庫都會在沒有任何備援的情況下重新初始化它自己。提及的錯誤已得到修正並整合至 HA-DB 版本 4.3。對於 HA-DB 4.2 及更低版本,請依照下列程序之一來變更 HA-DB 節點的角色。

解決方法︰ 完成以下程序之一以變更 HA-DB 節點的角色:

  1. 自動回復成功後,識別已變更了自身角色的 HA-DB 節點。

  2. 於在步驟 1 中識別的所有節點上,依節點停用出現問題的 HA-DB 資源故障監視器。


    # cladm noderole -db dbname -node nodeno -setrole role-before-auto_recovery
    
  3. 啟用出現問題的 HA-DB 資源故障監視器。

    或者

  1. 自動回復成功後,識別已變更了自身角色的 HA-DB 節點。

  2. 在所有托管資料庫的節點上,停用出現問題的 HA-DB 資源故障監視器。

  3. 在任意一個節點上,對每個需要變更其自身角色的 HA-DB 節點執行以下指令。


    # cladm noderole -db dbname -node nodeno -setrole role-before-auto_recovery
    

串聯式升級期間,其他節點無法存取 pnmd (4997693)

問題摘要︰ 如果串聯式升級未在所有節點上完成,尚未升級的節點將無法看到已升級節點上的 IPMP 群組

解決方法︰ 完成叢集中所有節點的升級。

[進階篩選] 面板上的 [日期] 欄位僅接受 mm/dd/yyyy 格式 (5075018)

問題摘要︰ SunPlex Manager 之 [進階篩選] 面板上的 [日期] 欄位僅接受 mm/dd/yyyy 格式。然而,在非英文語言環境中,日期格式異於 mm/dd/yyyy,且 [行事曆] 面板的傳回日期格式亦非 mm/dd/yyyy 格式。

解決方法︰ 在 [進階篩選] 面板中以 mm/dd/yyyy 格式鍵入日期範圍。請勿使用 [設定...] 按鈕來顯示行事曆並選擇日期。

在日文語言環境中,來自 scrgadm 的錯誤訊息包含亂碼 (5083147)

問題摘要︰ 在日文語言環境中,來自 scrgadm 的錯誤訊息顯示不正確。訊息包含亂碼。

解決方法︰ 以英文執行系統語言環境,以便以英文顯示錯誤訊息。

/usr/cluster/lib/cmass/ipmpgroupmanager.sh 程序檔將停用 IPv6 介面 (6174170)

問題摘要︰ SunPlex Manager 使用 /usr/cluster/lib/cmass/ipmpgroupmanager.sh 以刪除 IPMP 群組和 IPMP 群組中的配接卡。程序檔應該正確更新 /etc/hostname6.adaptername 檔案以僅移除群組名稱,但卻執行以下 ifconfig 指令停用 IPv6 介面:


ifconfig adaptername inet6 unplumb

解決方法︰ 重新啟動節點以啟用介面。或者,在該節點上執行以下 ifconfig 指令。此替代解決方法無需重新啟動節點。


ifconfig adaptername inet6 plumb up

[IPMP 群組] 頁面應該基於使用者選擇的 IP 版本寫入 [配接卡] 清單 (6174805)

問題摘要︰ [IPMP 群組] 頁面中顯示的配接卡清單不會隨著使用者選擇的 IP 版本而變更。該頁面顯示所有未配置群組的配接卡的清單。如下所示選取了 [IP 版本] 單選按鈕時,清單應該會更新:

解決方法︰ 選取 IP 版本後,確保從清單中選擇僅針對所選 IP 版本啟用的配接卡。

將配接卡從 IPv4 和 IPv6 移至僅限 IPv4 時,IPv4 版本未被移除 (6179721)

問題摘要︰ 在 [IPMP 群組] 頁面中顯示的配接卡清單會隨著使用者選擇的 IP 版本而變更。目前的 SunPlex Manager 存在一個錯誤,即,不論 IP 版本為何,始終會顯示完整的配接卡清單。SunPlex Manager 不應讓使用者將針對 IPv4 和 IPv6 啟用的配接卡移至僅限 IPv4。

解決方法︰ 使用者不應嘗試將針對 IPv4 和 IPv6 配置的配接卡移至僅限 IPv4。

如果未安裝 SUNWasvr 套裝軟體,則配置 Sun Java System Administration Server 會失敗 (6196005)

問題摘要︰ 如果未安裝 Sun Java System Administration Server,則嘗試配置 Sun Java System Administration Server 的資料服務會失敗。嘗試失敗,因為 SUNW.mps 資源類型需要 /etc/mps/admin/v5.2/cluster/SUNW.mps 目錄存在。此目錄僅在安裝了 SUNWasvr 套裝軟體時才存在。

解決方法︰ 若要校正此問題,請完成以下程序。

Procedure如何安裝 SUNWasvr 套裝軟體

步驟
  1. 在叢集節點上作為超級使用者或以一個相等的角色登入。

  2. 確定是否安裝了 SUNWasvr 套裝軟體。


    # pkginfo SUNWasvr
    
  3. 如果未安裝 SUNWasvr 套裝軟體,請透過完成以下步驟從 Sun Cluster CD-ROM 安裝該套裝軟體:

    1. 將 Sun Cluster 2 of 2 CD-ROM 插入相應的磁碟機。

    2. 移至包含 SUNWasvr 套裝軟體的目錄。


      # cd /cdrom/cdrom0/Solaris_sparc/Product/administration_svr/Packages
      
    3. 鍵入用於安裝該套裝軟體的指令。


      # pkgadd -d . SUNWasvr
      
    4. 將 CD-ROM 從磁碟機中取出。

startd/duration 的變更不會立即生效 (6196325)

問題摘要︰ 對於 Solaris 10,Sun Cluster HA for NFS 資料服務將服務管理功能 (SMF) 服務 /network/nfs/server/network/nfs/status/network/nfs/nlockmgr 的特性 /startd/duration 設定為 transient。 該特性設定的意圖在於使 SMF 在發生任何故障時均不重新啟動這些服務。SMF 中的錯誤導致 SMF 在發生首次故障時無視該特性設定而重新啟動 /network/nfs/status/network/nfs/nlockmgr

解決方法︰ 若要使 Sun Cluster HA for NFS 正確執行,請在建立第一個 Sun Cluster HA for NFS 資源後且在使 Sun Cluster HA for NFS 資源位於線上之前,在所有節點上執行以下指令。


# pkill -9 -x 'startd|lockd'

如果您首次啟動 Sun Cluster,請在建立第一個 Sun Cluster HA for NFS 資源後且在使 Sun Cluster HA for NFS 資源位於線上之前,在所有潛在的主節點上執行以上指令。

scinstall 未複製所有共用代理程式容器安全性檔案 (6203133)

問題摘要︰ 向叢集中增加節點時,scinstall 公用程式將檢查您要增加的節點上是否存在網路安全性服務 (NSS) 檔案。這些檔案和安全鍵是一般代理程式容器必需的。如果 NSS 檔案存在,公用程式會將一般代理程式容器安全性檔案從發起節點複製至增加的節點。但是如果發起節點未安裝 NSS 安全鍵,複製將失敗並且 scinstall 處理將退出。

解決方法︰ 執行以下程序以安裝 NSS 軟體,重新建立安全鍵,並在現有叢集節點上重新啟動一般代理程式容器。

Procedure向叢集增加節點時如何安裝 NSS 軟體

以超級使用者身份或允許適當存取的角色在所有現有叢集節點上執行以下程序。

開始之前

請提供 Sun Cluster 1 of 2 CD-ROM。NSS 套裝軟體位於 /cdrom/cdrom0/Solaris_arch/Product/shared_components/Packages/,其中,archsparcx86ver8 (適用於 Solaris 8)、9 (適用於 Solaris 9) 或 10 (適用於 Solaris 10)。

步驟
  1. 在每個節點上,停止 Sun Web Console 代理程式。


    # /usr/sbin/smcwebserver stop
    
  2. 在每個節點上,停止安全性檔案代理程式。


    # /opt/SUNWcacao/bin/cacaoadm stop
    
  3. 在每個節點上,確定是否安裝了 NSS 套裝軟體,如果已安裝,請確定其版本。


    # cat /var/sadm/pkg/SUNWtls/pkginfo | grep SUNW_PRODVERS
    SUNW_PRODVERS=3.9.4
  4. 如果安裝的版本早於 3.9.4,請移除現有 NSS 套裝軟體。


    # pkgrm packages
    

    下表列示了各硬體平台適用的套裝軟體。

    硬體平台 

    NSS 套裝軟體名稱 

    SPARC 

    SUNWtls SUNWtlsu SUNWtlsx

    x86 

    SUNWtls SUNWtlsu

  5. 在每個節點上,如果您移除了 NSS 套裝軟體或未安裝任何套裝軟體,請從 Sun Cluster 1 of 2 CD-ROM 安裝最新的 NSS 套裝軟體。

    • 對於 Solaris 8 或 Solaris 9 作業系統,請使用以下指令:


      # pkgadd -d . packages
      
    • 對於 Solaris 10 作業系統,請使用以下指令:


      # pkgadd -G -d . packages
      
  6. 變更至是 CD-ROM 上的目錄,然後彈出 CD-ROM。


    # eject cdrom
    
  7. 在每個節點上,建立 NSS 安全鍵。


    # /opt/SUNWcacao/bin/cacaoadm create-keys
    
  8. 在每個節點上,啟動安全性檔案代理程式。


    # /opt/SUNWcacao/bin/cacaoadm start
    
  9. 在每個節點上,啟動 Sun Web Console 代理程式。


    # /usr/sbin/smcwebserver start
    
  10. 在您要增加至叢集的節點上,重新啟動 scinstall 公用程式,並依照程序安裝新節點。

從 SunPlex Manager 刪除具有 IPv4 和 IPv6 配接卡的公用介面群組有時會失敗 (6209229)

問題摘要︰ 嘗試從群組中刪除 IPv6 配接卡時,刪除同時啟用了 IPv4 和 IPv6 的配接卡之公用介面群組有時會失敗。將會顯示以下錯誤訊息:


ifparse: Operation netmask not supported for inet6
/sbin/ifparse
/usr/cluster/lib/cmass/ipmpgroupmanager.sh[8]:
/etc/hostname.adaptname.tmpnumber: cannot open

解決方法︰ 編輯 /etc/hostname6.adaptername 檔案以包含以下行:


plumb
up
-standby

在叢集節點上執行以下指令:


ifconfig adaptername inet6 plumb up -standby

重新啟動修補程式 (節點) 程序期間記憶體發生錯誤 (錯誤 6210440)

問題摘要︰ Sun Cluster 軟體在嘗試執行從 Sun Cluster 3.1 9/04 軟體串聯式升級至 Sun Cluster 3.1 8/05 軟體時掛機,其原因在於︰在叢集模式中重新啟動第一個升級的節點時觸發了記憶體問題。

解決方法︰ 如果您執行的是 Sun Cluster 3.1 9/04 軟體或等效的修補程式 (修訂版 09 或更高),並要執行重新啟動修補程式程序以升級至 Sun Cluster 3.1 8/05 軟體或等效的修補程式 (修訂版 12),則您必須在升級叢集或套用此核心修補程式之前完成以下步驟。

Procedure如何準備升級至 Sun Cluster 3.1 8/05 軟體

步驟
  1. 選擇適用於您的可用性需求的修補程式安裝程序類型:

    • 重新啟動修補程式 (節點)

    • 重新啟動修補程式 (叢集和韌體)

    這些修補程式安裝程序位於「Sun Cluster 系統管理指南(適用於 Solaris 作業系統)」中的第 8 章「修補 Sun Cluster 軟體與韌體」

  2. 根據您所使用的作業系統套用以下修補程式中的一個:

    • 117909-11 Sun Cluster 3.1 Core Patch for SunOS 5.9 X86

    • 117950-11 Sun Cluster 3.1 Core Patch for Solaris 8

    • 117949-11 Sun Cluster 3.1 Core Patch for Solaris 9

    在升級至 Sun Cluster 3.1 8/05 軟體或等效的修補程式 (修訂版 12) 之前,您必須完成完整的修補程式安裝程序。

安裝 Sun Cluster 後區域安裝和區域啟動不工作 (6211453)

問題摘要︰ Sun Cluster 軟體安裝將 exclude: lofs 增加至 /etc/system。因為 lofs 對於區域的功能很重要,所以,zone installzone boot 失敗。

解決方法︰ 嘗試建立任何區域之前,請執行以下程序。

Procedure安裝 Sun Cluster 之後如何執行區域安裝和區域啟動

步驟
  1. 如果您執行的是 Sun Cluster HA for NFS,請從自動掛載程式對應中排除所有由 NFS 伺服器匯出的高可用性本機檔案系統一部分之檔案。

  2. 在每一個叢集節點上,編輯 /etc/system 檔案以移除所有 exclude: lofs 行。

  3. 重新啟動叢集。

Solaris 10 需要執行附加步驟才能從叢集檔案系統的故障回復,以在啟動時掛載 (6211485)

問題摘要︰ 在啟動時間叢集檔案系統掛載失敗時,Solaris 10 作業系統需要與之前的 Solaris 作業系統所需的不同的回復程序。mountgfsys 服務可能會失敗並將該節點置於維護狀態,而非顯示登入提示。輸出訊息與以下類似:


WARNING - Unable to globally mount all filesystems.
Check logs for error messages and correct the problems.
 
May 18 14:06:58 pkaffa1 svc.startd[8]: system/cluster/mountgfsys:default misconfigured
 
May 18 14:06:59 pkaffa1 Cluster.CCR: /usr/cluster/bin/scgdevs: 
Filesystem /global/.devices/node@1 is not available in /etc/mnttab.

解決方法︰ 修復叢集檔案系統的掛載問題之後,您必須手動使 mountgfsys 服務位於線上。執行以下指令以使 mountgfsys 服務位於線上,並同步化全域裝置名稱空間:


# svcadm clear svc:/system/cluster/mountgfsys:default
# svcadm clear svc:/system/cluster/gdevsync:default

啟動處理即將繼續。

不支援的升級至 Solaris 10 作業系統將毀壞 /etc/path_to_inst 檔案 (6216447)

問題摘要︰ Sun Cluster 3.1 8/05 軟體不支援升級至 2005 年 3 月之發行版本的 Solaris 10 作業系統。嘗試升級至該發行版本可能會毀壞 /etc/path_to_inst 檔案。此檔案毀壞將阻止節點成功啟動。已毀壞的檔案將類似於以下顯示,因為除實體裝置名稱包含前綴 /node@nodeid 之外,它包含某些相同裝置名稱的重複項目:


…
"/node@nodeid/physical_device_name" instance_number "driver_binding_name"
…
"/physical_device_name" instance_number "driver_binding_name"

此外,某些關鍵的 Solaris 服務可能無法啟動,包括網路和檔案系統掛載,並且主控台上可能會列印出訊息表明該服務配置錯誤。

解決方法︰ 使用以下程序。

Procedure如何從毀壞的 /etc/path_to_inst 檔案回復

以下程序描述如何從導致 /etc/path_to_inst 檔案毀壞的升級至 Solaris 10 軟體中回復。


備註 –

此程序不會嘗試校正任何可能與將 Sun Cluster 配置升級至 2005 年 3 月之發行版本的 Solaris 10 作業系統相關聯的其他問題。


在升級至 2005 年 3 月之發行版本的 Solaris 10 作業系統之每個節點上執行此程序。

開始之前

如果一個節點無法啟動,請從網路或 CD-ROM 啟動該節點。啟動節點後,立即執行 fsck 指令,並在例如 /a 的分割區中掛載本機檔案系統。在步驟 2 中,在/etc 目錄的路徑中使用本機檔案系統掛載的名稱。

步驟
  1. 成為該節點上的超級使用者或相等的角色。

  2. 變更為 /etc 目錄。


    # cd /etc
    
  3. 確定 path_to_inst 檔案是否已毀壞。

    如果 path_to_inst 檔案已毀壞,則會出現以下特徵:

    • 該檔案包括一些在實體裝置名稱開頭包含 /node@nodeid 的項目。

    • 一些相同的項目會再次列示,但沒有 /node@nodeid 前綴。

    如果該檔案不是此種格式,則會存在某些其他問題。請勿繼續此程序。如果需要協助,請與您的 Sun 服務代表聯絡。

  4. 若如步驟 3 中所述,path_to_inst 檔案已毀壞,請執行以下指令。


    # cp path_to_inst path_to_inst.bak
    # sed -n -e "/^#/p" -e "s,node@./,,p" path_to_inst.bak > path_to_inst
    
  5. 檢視 path_to_inst 檔案以確定該檔案已修復。

    修復的檔案將會反映以下變更:

    • /node@nodeid 前綴已從所有實體裝置名稱中移除。

    • 任何實體裝置名稱均沒有重複的項目。

  6. 確保 path_to_inst 檔案的權限為唯讀。


    # ls -l /etc/path_to_inst
    -r--r--r--   1 root     root        2946 Aug  8  2005 path_to_inst
  7. 執行重新配置重新啟動至非叢集模式。


    # reboot -- -rx
    
  8. 修復所有受影響的叢集節點後,移至「Sun Cluster 軟體安裝指南(適用於 Solaris 作業系統)」中的「如何在非滾動式升級之前升級附屬軟體」以繼續升級程序。

CMM 重新配置回呼逾時,節點正在中斷 (6217017)

問題摘要︰ 在具有 ce 傳輸的 x86 叢集上,嚴重負載下的節點作為核心分離的結果,可能會被 CMM 停止。

解決方法︰ 對於在私有網路上使用 PCI Gigaswift 乙太網路卡的 x86 叢集,將以下內容增加至 /etc/system


set ce:ce_tx_ring_size=8192

節點連結或離開節點多於兩個、執行 Solaris 10 且使用 Hitachi 儲存的叢集時會當機 (6227074)

問題摘要︰ 在節點多於兩個、執行 Solaris 10 且使用 Hitachi 儲存的叢集上,節點連結或離開該叢集時所有叢集節點均可能會當機。

解決方法︰ 目前尚無解決方法。如果您遇到此問題,請與您的 Sun 服務提供者聯絡,以獲得修補程式。

Java ES 2005Q1 installer 未完全安裝 Application Server 8.1 EE (6229510)

問題摘要︰ 如果選取了 [稍後配置] 選項,則 Java ES 2005Q1 installer 無法安裝 Application Server Enterprise Edition 8.1。選取 [稍後配置] 選項將安裝平台版本而非企業版本。

解決方法︰ 使用 Java ES installer 安裝 Application Server Enterprise Edition 8.1 時,請使用 [稍後配置] 選項進行安裝。選取 [稍後配置] 選項將僅安裝平台版本。

scvxinstall 導致 rpcbind 重新啟動 (6237044)

問題摘要︰ 重新啟動連結 SMF 服務會影響 Solaris Volume Manager 作業。安裝 Veritas 4.1 VxVM 套裝軟體將導致 SMF 連結服務重新啟動。

解決方法︰ 在 S10 主機上重新啟動連結 SMF 服務之後或安裝 VxVM 4.1 之後,均請重新啟動 Solaris Volume Manager。


svcadm restart svc:/network/rpc/scadmd:default

在使用 Solaris 10 的系統上,無法在使用 Java ES installer 安裝了 Sun Cluster 之後安裝 Sun Cluster 資料服務 (6237159)

問題摘要︰ 此問題僅會發生在使用 Solaris 10 的系統上。如果使用者在安裝了 Sun Cluster 核心之後於 Sun Cluster Agents CD-ROM 上使用 Java ES installer 安裝 Sun Cluster 資料服務,則 installer 將失敗並顯示以下訊息:


The installer has determined that you must manually remove incompatible versions 
of the following components before proceeding: 

[Sun Cluster 3.1 8/05, Sun Cluster 3.1 8/05, Sun Cluster 3.1 8/05]

After you remove these components, go back. 
Component                       Required By ...

1. Sun Cluster 3.1 8/05     HA Sun Java System Message Queue : HA Sun Java 
                            System Message Queue 
2. Sun Cluster 3.1 8/05     HA Sun Java System Application Server : HA Sun Java 
									System Application Server 
3. Sun Cluster 3.1 8/05     HA/Scalable Sun Java System Web Server : HA/Scalable 
									Sun Java System Web Server 
4. Select this option to go back to the component list. This process might take
									a few moments while the installer rechecks your
									system for installed components.

Select a component to see the details. Press 4 to go back the product list
[4] {"<" goes back, "!" exits}

解決方法︰ 在使用 Solaris 10 的系統上,透過使用 pkgaddscinstall 手動安裝 Sun Cluster 資料服務。如果 Sun Cluster 資料服務在共用元件上具有相依性,請透過使用 pkgadd 手動安裝共用元件。以下連結列示了每個產品的共用元件:

http://docs.sun.com/source/819-0062/preparing.html#wp28178

/usr/sbin/smcwebserver: ... j2se/opt/javahelp/lib: does not exist 錯誤訊息 (6238302)

問題摘要︰ 啟動 Sun Web 主控台期間,可能會顯示以下訊息。


/usr/sbin/smcwebserver:../../../../j2se/opt/javahelp/lib: does not exist

解決方法︰ 該訊息可以安全地忽略。您可以透過輸入以下內容在 /usr/j2se/opt 中手動增加一個連結,以指向正確的 Java Help 2.0:


# ln -s /usr/jdk/packages/javax.help-2.0 /usr/j2se/opt/javahelp

節點在作業系統從 Solaris 9 上的 Sun Cluster 3.1 4/04 升級至 Solaris 10 後當機 (6245238)

問題摘要︰ 在執行 Sun Cluster 3.1 4/04 軟體或早期版本的叢集上,從 Solaris 9 作業系統升級至 Solaris 10 作業系統後,將節點啟動為非叢集模式會導致節點當機。

解決方法︰ 在從 Solaris 9 升級至 Solaris 10 軟體之前安裝以下修補程式之一。

SunPlex Installer 未在資源群組中建立資源 (6250327)

問題摘要︰ 使用 SunPlex Installer 將 Sun Cluster HA for Apache 和 Sun Cluster HA for NFS 資料服務配置為 Sun Cluster 安裝的一部分時,SunPlex Installer 不會在資源群組中建立必需的裝置群組和資源。

解決方法︰ 請勿使用 SunPlex Installer 安裝和配置資料服務。而應依照「Sun Cluster 軟體安裝指南(適用於 Solaris 作業系統)」「Sun Cluster Data Service for Apache Guide for Solaris OS」「Sun Cluster Data Service for NFS Guide for Solaris OS」手冊中的程序安裝和配置這些資料服務。

HA-NFS 變更,以支援針對 6244819 的 NFSv4 修正 (6251676)

問題摘要︰ 在 Sun Cluster 3.1 8/05 中不支援 NFSv4。

解決方法︰ Solaris 10 引入了新版本的 NFS 協定,NFSv4。此為 Solaris 10 用戶端和伺服器的預設協定。Sun Cluster 3.1 8/05 發行版本支援 Solaris 10,然而,卻不支援在叢集上對 Sun Cluster HA for NFS 服務使用 NFSv4 協定以使 NFS 伺服器獲得高可用性。若要確保沒有 NFS 用戶端可以使用 NFSv4 協定與 Sun Cluster 軟體上的 NFS 伺服器對話,請編輯 /etc/default/nfs 檔案以將 NFS_SERVER_VERSMAX=4 行變更為 NFS_SERVER_VERSMAX=3。這將確保叢集上 Sun Cluster HA for NFS 服務的用戶端僅使用 NFSv3 協定。

備註:將 Solaris 10 叢集節點作為 NFSv4 用戶端使用不受此限制和上述解決方法的影響。叢集節點可以作為 NFSv4 用戶端使用。

metaset 指令在重新啟動 rpcbind 服務後失敗 (6252216)

問題摘要metaset 指令在重新啟動 rpcbind 服務後失敗。

解決方法︰ 確保您未在 Sun Cluster 系統上執行任何配置作業,然後使用以下指令強制結束 rpc.metad 程序:


# pkill -9 rpc.metad

節點由於 metaclust 傳回步驟錯誤而當機:RPC:程式未註冊 (6256220)

問題摘要︰ 關閉叢集時,某些節點可能由於在節點上停止服務的順序而當機。如果 RPC 服務在停止 RAC 架構之前即停止,則在 SVM 資源嘗試重新配置時可能會發生錯誤。此錯誤結果會報告回導致節點當機的 RAC 架構。此問題已由使用 SVM 儲存選項執行 RAC 架構的 Sun Cluster 觀察。應該沒有對 Sun Cluster 功能性造成影響。

解決方法︰ 當機是有意所為,可安全地忽略,然而應該清除儲存的記憶體檔案以收回檔案系統空間。

NIS 位址解析掛機並導致容錯移轉失敗 (6257112)

問題摘要︰ 在 Solaris 10 作業系統中,已修改 /etc/nsswitch.conf 檔案,以在 ipnodes 項目中包含 NIS。


ipnodes:    files nis [NOTFOUND=return]

如果因為 NIS 問題, 或因為所有公用網路配接卡故障而使 NIS 不可存取,則這將導致位址解析掛機。此問題最終會導致容錯移轉資源或共用位址資源無法進行容錯移轉。

解決方法︰ 建立邏輯主機或共用位址資源之前完成以下作業:

  1. /etc/nsswitch.conf 檔案中的 ipnodes 項目由 [NOTFOUND=return] 變更為 [TRYAGAIN=0]


    ipnodes:    files nis [TRYAGAIN=0]
  2. 確保邏輯主機和共用位址的所有 IP 位址除增加至 /etc/inet/hosts 檔案外,也已增加至 /etc/inet/ipnodes 檔案。

scinstall 無法升級 Sun Java System Application Server EE 的 Sun Cluster 資料服務 (6263451)

問題摘要︰ 嘗試將 Sun Java System Application Server EE 的 Sun Cluster 資料服務由 3.1 9/04 更新至 3.1 8/05 時,scinstall 未移除 j2ee 的套裝軟體並顯示以下訊息:


Skipping "SUNWscswa" - already installed

Sun Java System Application Server EE 的 Sun Cluster 資料服務未升級。

解決方法︰ 使用以下指令手動移除並增加 sap_j2ee 套裝軟體:


# # pkgrm SUNWscswa
# pkgadd [-d device] SUNWscswa

scnas:在啟動期間未掛載 NAS 檔案系統 (6268260)

問題摘要︰ 無法在容錯移轉或用於將資料服務定位至節點的 scswitch 之前檢查 NFS 檔案系統的可靠性。如果節點沒有 NFS 檔案系統,切換/容錯移轉至該節點將導致需要手動介入的資料服務出現故障。需要類似 HAStoragePlus 的機制以在嘗試容錯移轉/切換至該節點之前檢查檔案系統的可靠性。

解決方法︰ 將使用 NAS 檔案伺服器 (包含 /etc/vfstab 中的項目) 的檔案系統掛載於 Sun Cluster 軟體控制之外,這意味著 Sun Cluster 軟體將不會感知到任何問題。檔案系統變得不可用時,某些資料服務,例如 Sun Cluster HA for Oracle,將在執行諸如 STARTSTOP 等資料服務方法時失敗。

這些方法的失敗可能導致數種可能性:

執行以下程序之一以避免上述問題:

HADB 錯誤監視器將不會重新啟動 ma 程序 (6269813)

問題摘要︰ Sun Cluster 資料服務在被強制結束或意外結束時不會重新啟動 ma 程序。

解決方法︰ 此為預期的運作方式且資料服務不會受到影響。

串聯式升級期間 rgmd 傾印記憶體 (6271037)

問題摘要︰ 在所有節點均執行新軟體之前,串聯式升級期間嘗試刪除資源可能會導致其中的一個節點當機。請勿刪除資源,直至所有節點均安裝了新軟體。

解決方法︰ 串聯式升級期間,請勿刪除 RGM 資源,直至所有節點均安裝了新軟體。

關閉和啟動叢集之後 HADB 資料庫無法重新啟動 (6276868)

問題摘要︰ 重新啟動叢集節點之後 HADB 資料庫無法重新啟動。使用者將無法存取資料庫。

解決方法︰ 透過完成以下程序重新啟動其中一個管理資料服務。如果以下程序無法解決問題,請刪除資料庫然後重新建立。

Procedure重新啟動管理資料服務

步驟
  1. 在要關閉的節點上,鍵入下列指令。-h 選項不應包含您要在其上停止管理代理程式之節點的名稱。


    scswitch -z -g hadb resource grp -h node1, node2...
    
  2. 將資源群組切換回原始節點。


    scswitch —Z —g hadb resource grp
    
  3. 檢查資料庫的狀態。請等待直至資料庫變為「已停止」狀態。


    hadbm status -n database
    
  4. 啟動資料庫。


    hadbm start database
    

增加 SUNWiimsc 套裝軟體之後,SUNW.iim 大小為 0 (6277593)

問題摘要sun_cluster_agents 中的 SUNWiimsc 套裝軟體無效。增加此套裝軟體之後,/opt/SUNWiim/cluster 中的 SUNW.iim 大小為 0。

解決方法︰ 透過完成以下步驟替代 SUNW.iim 套裝軟體並再次註冊。

Procedure如何安裝正確的 SUNW.iim 套裝軟體

步驟
  1. 從 CD-ROM 複製正確的 SUNW.iim


    # cp 2of2_CD/Solaris_arch/Product/sun_cluster_agents/Solaris_os
    /Packages/SUNWiimsc/reloc/SUNWiim/cluster/SUNW.iim /opt/SUNWiim/Cluster/SUNW.iim
    
  2. 移除任何現有的 SUNW.iim 註冊。


    # rm /usr/cluster/lib/rgm/rtreg/SUNW.iim
    
  3. 註冊 Sun Cluster 資料服務


    sh 2of2_CD/Solaris_arch/Product/sun_cluster_agents/
    Solaris_os/Packages/SUNWiimsc/install/postinstall

經由 SunPlex Manager 增加新的 IPMP 群組有時會失敗 (6278059)

問題摘要︰ 嘗試使用 SunPlex Manger 增加新的 IPMP 群組有時會失敗,並顯示以下訊息。


An error was encountered by the system. If you were performing an action 
when this occurred, review the current system state prior to proceeding.

解決方法︰ 依據您所執行的 IP 版本執行以下程序之一。

Procedure當您使用 IPv4 時,經由 SunPlex Manager 增加新的 IPMP 群組

步驟
  1. 輸入以下指令:


    ifconfig interface inet plumb group groupname [addif address deprecated] 
    netmask + broadcast + up -failover
    
  2. 如果提供了測試位址,請更新 /etc/hostname .interface 檔案以增加以下內容:


    group groupname addif address netmask + broadcast + deprecated -failover up
  3. 如果未提供測試位址,請更新 /etc/hostname.interface 檔案以增加以下內容:


    group.groupname netmask + broadcast -failover up

Procedure當您使用 IPv6 時,經由 SunPlex Manager 增加新的 IPMP 群組

步驟
  1. 輸入以下指令:


    ifconfig interface inet6 plumb up group groupname
    
  2. 更新 /etc/hostname6.interface 檔案以增加以下項目:


    group groupname plumb up
  3. 如果 /etc/hostname6.interface 檔案尚不存在,則建立該檔案並增加上述的項目。

當機其中一個叢集節點後,HADB 資源反覆重新啟動 (6278435)

問題摘要︰ 使資源位於線上並使叢集中的一個節點當機 (例如,shutdownuadmin) 後,資源在其他節點上反覆重新啟動。使用者將無法發出任何管理指令。

解決方法︰ 若要避免此問題,作為超級使用者或具有相等存取權限的角色登入單一節點,並使用以下指令將資源的 probe_timeout 值增加為 600 秒:


scrgadm -c -j hadb resource -x Probe_timeout=600

若要驗證您的變更,請關閉其中一個叢集節點,並檢查以確保資源未進入降級狀態。

在 Solaris 10 上,可縮放式服務在公用網路和 Sun Cluster 傳輸均使用 bge(7D) 驅動的配接卡時不工作 (6278520)

問題摘要︰ 當公用網路和 Sun Cluster 傳輸均使用 bge 驅動的配接卡時,Sun Cluster 可縮放式服務的負載平衡功能在 Solaris 10 系統上不起作用。具有使用 bge 之內建 NIC 的平台有 Sun Fire V210、V240 和 V250。

容錯移轉資料服務不受此錯誤的影響。

解決方法︰ 請勿將公用網路和叢集傳輸均配置為使用 bge 驅動的配接卡。

預設語言環境設定為多位元組語言環境時,無法從 SunPlex Manager 查看系統記錄 (6281445)

問題摘要︰ SunPlex Manager 預設語言環境設定為多位元組語言環境時,您無法查看系統記錄。

解決方法︰ 將預設語言環境設定為 C 或經由指令行 shell 手動檢視系統記錄檔 (/var/adm/messages)

在 Node1 上使用 scswitch 無法使節點代理程式位於線上 (6283646)

問題摘要︰ 必須配置實例和節點代理程式以偵聽容錯移轉 IP 位址/主機名稱。建立節點代理程式和 Sun Java System Application Server 實例時,依預設設定了實體節點主機名稱。在 domain.xml 中變更了 HTTP IP 位址和用戶端主機名稱。但未重新啟動網域管理伺服器,因此變更未生效。因此,節點代理程式僅在已進行配置的實體節點而非其他節點上啟動。

解決方法︰ 變更 domain.xml 的節點代理程式區段中的 client-hostname 特性,以偵聽容錯移轉 IP 並重新啟動網域管理伺服器,以使變更生效。

SunPlex Manager 和 Cacao 1.1 僅支援 JDK 1.5.0_03 (6288183)

問題摘要︰ 將 SunPlex Manager 在 Sun Cluster 3.1 8/05 中與 Cacao 1.1 一起使用時,僅支援 JDK 1.5.0_03。

解決方法︰ 透過完成以下程序手動安裝 JDK 1.5。

Procedure如何手動安裝 JDK 1.5

步驟
  1. 從 JES 4 共用元件目錄增加 JDK 1.5 (請參閱 JES 4 RN 以取得說明)。

  2. 停止 cacao。


    # /opt/SUNWcacao/bin/cacaoadm stop
    
  3. 啟動 cacao。


    # /opt/SUNWcacao/bin/cacaoadm start
    

安裝 SC3.1 (8/05) 修補程式 117949–14 (在 Solaris 9 上) 和修補程式 117950–14 (在 Solaris 8 上) 後,Java VM 在啟動期間發生錯誤 (6291206)

問題摘要︰ 此錯誤出現在 Sun Cluster 系統上,該系統執行透過套用修補程式 117949-14 (在執行 Solaris 9 的系統上) 或套用修補程式 117950-14 (在執行 Solaris 8 的系統上) 升級至 Sun Cluster (8/05) 之 3.1 (9/04) plus 修補程式 。機器啟動後會立即顯示以下錯誤訊息:


# An unexpected error has been detected by HotSpot Virtual Machine:
#
#  SIGSEGV (0xb) at pc=0xfaa90a88, pid=3102, tid=1
#
# Java VM: Java HotSpot(TM) Client VM (1.5.0_01-b07 mixed mode, sharing)
# Problematic frame:
# C  [libcmas_common.so+0xa88]  newStringArray+0x70
#
# An error report file with more information is saved as /tmp/hs_err_pid3102.log
#
# If you would like to submit a bug report, please visit:
#   http://java.sun.com/webapps/bugreport/crash.jsp
#

解決方法︰ 從 Sun Cluster 3.1 (9/04) 升級至 Sun Cluster 3.1 (8/05) 時,透過輸入以下指令除安裝核心修補程式之外,將安裝 SPM 修補程式。

在執行 Solaris 8 的系統上,套用核心修補程式 117950-14 後執行以下指令:


 patchadd patchdir/118626-04

在執行 Solaris 9 的系統上,套用修補程式 117949-14 後執行以下指令:


patchadd patchdir/118627-04 

目錄伺服器和管理伺服器資源註冊有時會失敗 (6298187)

問題摘要︰ 目錄伺服器和管理伺服器資源註冊有時會失敗。系統將顯示以下訊息:


Registration file not found for "SUNW.mps" in /usr/cluster/lib/rgm/rtreg

解決方法︰ 透過輸入以下指令之一從 pkg 位置直接註冊缺少的檔案:

Solaris 10 叢集節點可能無法與同時具有 IPv4 和 IPv6 位址對應的機器通訊 (6306113)

問題摘要︰ 如果執行 Solaris 10 的 Sun Cluster 節點未針對公用網路配置 IPv6 介面 (例如,未針對叢集互連),將無法存取在名稱服務中同時具有 IPv4 和 IPv6 位址對應的機器,例如 NIS。Telnet 和 traceroot 等透過 IPv4 選擇 IPv6 位址的應用程式將會看到其資料封包被傳送至叢集傳輸配接卡,然後被丟棄。

解決方法︰ 依據配置或您的叢集使用以下解決方法之一。