Sun Cluster 3.0 5/02 補足情報

StorEdge 3900 および 6900 シリーズシステムの管理

この節では、StorEdge 3900 および 6900 シリーズシステムを管理する作業について説明します。作業の一覧は表 E-1 を参照してください。StorEdge 3900 または 6900 シリーズシステム内の StorEdge T3+ アレイは、ディスクドライブが完全に構成されていないと機能しません。このため、この節ではディスクドライブの追加および削除の方法については説明しません。


Caution - Caution -

長時間に渡って StorEdge T3+ アレイから FRU (現場交換可能ユニット) を取り外しておくと、熱による障害が発生する可能性があります。この障害を防ぐため、StorEdge T3+ アレイは、30 分を超えてコンポーネントが取り外された場合には一定の順序で停止するように 設計されています。したがって、FRU 交換の作業を開始する前に、交換部品をただちに使用できるように準備しておく必要があります。FRU は 30 分以内に交換する必要があります。これを過ぎると、StorEdge T3+ アレイおよび接続されているすべての StorEdge T3+ アレイが停止し、電源が落ちます。


表 E-1 作業マップ: StorEdge 3900 または 6900 シリーズシステムの管理

作業 

参照箇所 

StorEdge 3900 または 6900 シリーズシステムの追加 

「稼動しているクラスタに StorEdge 3900 または 6900 シリーズシステムを追加する方法」

StorEdge 3900 または 6900 シリーズシステムの削除 

「稼動しているクラスタから StorEdge 3900 または 6900 シリーズシステムを削除する方法」

仮想化エンジンの交換 (StorEdge 6900 シリーズのみ) 

「稼動しているクラスタで仮想エンジンを交換する方法 (StorEdge 6900 シリーズのみ)」

ノードとスイッチ間を接続する光ファイバケーブルの交換 

「稼動しているクラスタ内でノードとスイッチ間のコンポーネントを交換する方法」

ノードのホストアダプタ上のギガビットインタフェースコンバータ (GBIC) の交換 

「稼動しているクラスタ内でノードとスイッチ間のコンポーネントを交換する方法」

ノードに接続している FC スイッチ用 GBIC の交換 

「稼動しているクラスタ内でノードとスイッチ間のコンポーネントを交換する方法」

システムから T3+ アレイパートナーグループの削除 

「稼動しているクラスタから StorEdge T3/T3+ アレイを削除する方法」

StorEdge T3+ アレイファームウェアのアップグレード 

「StorEdge T3+ アレイファームウェアをアップグレードする方法」

アレイ内のディスクドライブの交換 

「稼動しているクラスタ内で故障ディスクドライブを交換する方法」

ノード内のホストアダプタの交換 

「稼動しているクラスタ内でノードのホストアダプタを交換する方法」

StorEdge ネットワーク FC Switch-8 または Switch-16 の交換 

 

非クラスタ環境で使用される手順に従ってください。 

Sun StorEdge 3900 and 6900 Series Reference Manual

アレイとスイッチ間を接続する光ファイバケーブルの交換 

 

非クラスタ環境で使用される手順に従ってください。 

Sun StorEdge 3900 and 6900 Series Reference Manual

アレイに接続している FC スイッチ用 GBIC の交換 

 

非クラスタ環境で使用される手順に従ってください。 

Sun StorEdge 3900 and 6900 Series Reference Manual

StorEdge 3900 または 6900 シリーズ記憶装置サービスプロセッサの交換 

 

非クラスタ環境で使用される手順に従ってください。 

Sun StorEdge 3900 and 6900 Series Reference Manual

StorEdge 3900 または 6900 シリーズ Ethernet ハブの交換 

 

非クラスタ環境で使用される手順に従ってください。 

Sun StorEdge 3900 and 6900 Series Reference Manual

StorEdge T3+ 電源 / 冷却ユニット (PCU) の交換 

 

非クラスタ環境で使用される手順に従ってください。 

Sun StorEdge T3 and T3+ Array Installation, Operation, and Service Manual

StorEdge T3+ ユニットインターコネクトカード (UIC) の交換 

 

非クラスタ環境で使用される手順に従ってください。 

Sun StorEdge T3 and T3+ Array Installation, Operation, and Service Manual

StorEdge T3+ アレイの電源ケーブルの交換 

 

非クラスタ環境で使用される手順に従ってください。 

Sun StorEdge T3 and T3+ Array Installation, Operation, and Service Manual

StorEdge T3+ Ethernet ケーブルの交換 

 

非クラスタ環境で使用される手順に従ってください。 

Sun StorEdge T3 and T3+ Array Installation, Operation, and Service Manual

稼動しているクラスタに StorEdge 3900 または 6900 シリーズシステムを追加する方法


注 -

稼動しているクラスタに新しい StorEdge 3900 および 6900 シリーズシステムを追加する場合はこの手順に従ってください。稼動していない Sun Cluster にシステムをインストールする場合は、「StorEdge 3900 および 6900 シリーズシステムを取り付ける方法」の手順に従ってください。


この手順では、作業を開始するノードを「ノード A」、接続された 2 つ目のノードを「ノード B」として示しています。

  1. システムキャビネットを開梱して設置し、高さを調整します。

    手順については、『Sun StorEdge 3900 and 6900 Series Cabinet Installation and Service Manual』を参照してください。

  2. 次の順にケーブルを取り付けます。

    1. システムの電源コードを取り付けます。

    2. システムのアース線を取り付けます。

    3. FC スイッチとクラスタノード間のケーブルを取り付けます (図 E-1 の例を参照)。

    4. LAN 用の Ethernet ケーブルを取り付けます。

    ケーブルの取り付け方法については、『Sun StorEdge 3900 and 6900 Series Cabinet Installation and Service Manual』を参照してください。

  3. 新しいシステムに電源を入れます。


    注 -

    システム内の StorEdge T3+ アレイは、起動に数分かかる可能性があります。


    手順については、『Sun StorEdge 3900 and 6900 Series Cabinet Installation and Service Manual』を参照してください。

  4. システムの記憶装置サービスプロセッサのホスト名、IP アドレス、日付、およびタイムゾーンを設定します。

    手順の詳細は、『Sun StorEdge 3900 and 6900 Series Reference Manual』に示されている現場での初期取り付けについての説明を参照してください。

  5. 新しいシステムの FC スイッチからあらかじめ構成されたデフォルトのハードゾーンを削除します。


    注 -

    StorEdge 3900 シリーズのみ: Sun Cluster ホストベースのミラー化で利用できるように StorEdge 3900 シリーズシステムを構成するには、システムの FC スイッチからデフォルトのハードゾーンを削除する必要があります。取り付けられている SANsurfer インタフェースを使用して Sun StorEdge Network FC Switch-8 および Switch-16 スイッチから構成済みのハードゾーンを削除する方法については、『SANbox-8/16 Switch Management User's Manual』を参照してください。


  6. すべてのノードで、稼動しているリソースグループとデバイスグループを確認します。

    この情報を記録するのは、この作業の 手順 48 でこの情報を使用してリソースグループとデバイスグループをこれらのノードに返すためです。


    # scstat
    

  7. ノード A からすべてのリソースグループとデバイスグループを削除します。


    # scswitch -S -h nodename
    

  8. ノード A にホストアダプタを取り付ける必要があるかどうかを確認します。

    • 必要がない場合は、手順 14 へ進んでください。

    • ノード A にホストアダプタを取り付ける必要がある場合は、手順 9 から継続してください。

  9. 取り付けようとしているホストアダプタは、ノード A での初めてのホストアダプタかどうかを確認します。

    • 初めてではない場合は、手順 11 へ進んでください。

    • 初めてのホストアダプタである場合は、次の例のように pkginfo コマンドを使用し、そのホストアダプタに必要なサポートパッケージがこのノードにすでにインストールされているかどうかを確認します。必要なパッケージは次のとおりです。


      # pkginfo | egrep Wlux
      system 				SUNWluxd 					Sun Enterprise Network Array sf Device Driver
      system 				SUNWluxdx					Sun Enterprise Network Array sf Device Driver (64-bit)
      system 				SUNWluxl 					Sun Enterprise Network Array socal Device Driver
      system 				SUNWluxlx 					Sun Enterprise Network Array socal Device Driver (64-bit)
      system 				SUNWluxop 					Sun Enterprise Network Array firmware and utilities
      system 				SUNWluxox 					Sun Enterprise Network Array libraries (64-bit)

  10. 必要なサポートパッケージがすでにインストールされているかどうかを確認します。

    • すべてインストールされている場合は、手順 11 へ進んでください。

    • 欠けている必須サポートパッケージがあれば、それらをインストールしてください。

    サポートパッケージは、Solaris CD-ROM の Product ディレクトリに入っています。欠けているパッケージの追加には、pkgadd コマンドを使用してください。


    # pkgadd -d path_to_Solaris/Product Pkg1 Pkg2 Pkg3 ... PkgN
    

  11. ノード A を停止して電源を切ります。


    # shutdown -y -g0 -i0
    

    ノードを停止して電源を切る手順については、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。

  12. ノード A にホストアダプタを取り付けます。

    ホストアダプタを取り付ける手順については、ホストアダプタとノードに付属しているマニュアルを参照してください。

  13. ノード A の電源を入れ、非クラスタモードで起動します。


    {0} ok boot -x
    

    詳細は、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。

  14. 必要に応じ、ノード A のホストアダプタファームウェアをアップグレードします。

    必要なパッチまたはファームウェアのダウンロード情報を示した Sun の EarlyNotifier Web ページにアクセスする方法については、『Sun Cluster 3.0 5/02 ご使用にあたって』を参照してください。ホストアダプタファームウェアパッチの適用方法については、ファームウェアパッチの README ファイルを参照してください。

  15. 必要に応じ、FC スイッチに GBIC を取り付けます。

    FC スイッチに GBIC を取り付ける手順については、『SANbox 8/16 Segmented Loop Switch User's Manual』を参照してください。

  16. ノード A と StorEdge 3900 または 6900 シリーズシステム内の FC スイッチ間を光ファイバケーブルで接続します (図 E-1 の例を参照)。

  17. 必要に応じ、ノード A に StorEdge T3+ アレイサポートに必要な Solaris パッチをインストールします。

    必要なパッチまたはファームウェアのダウンロード情報を示した Sun の EarlyNotifier Web ページにアクセスする方法については、『Sun Cluster 3.0 5/02 ご使用にあたって』を参照してください。ホストアダプタファームウェアパッチの適用方法については、ファームウェアパッチの README ファイルを参照してください。

  18. Sun Download Center Web サイト http://www.sun.com/storage/san/ から、Sun StorEdge Traffic Manager ソフトウェアサポートに必要なパッチまたはソフトウェアをノード A にインストールします。

    ソフトウェアのインストール手順については、この Web サイトの説明を参照してください。

  19. 手順 18 でインストールしたソフトウェア内の Sun StorEdge Traffic Manager ソフトウェア機能をアクティブにします。

    Sun StorEdge Traffic Manager ソフトウェア機能をアクティブにするには、インストールされている /kernel/drv/scsi_vhci.conf ファイルを手動で編集し、mpxio-disable パラメータを no に変更します。


    mpxio-disable="no"
    

  20. ノード A を停止します。


    # shutdown -y -g0 -i0
    

  21. ノード A で再構成起動を行い、新しい Solaris デバイスファイルとリンクを作成します。


    {0} ok boot -r
    

  22. すべてのノードで、/devices および /dev エントリを更新します。


    # devfsadm -C 
    # devfsadm
    

  23. すべてのノードで、DID インスタンスのパスを更新します。


    # scdidadm -C 
    # scdidadm -r
    

  24. StorEdge 3900 シリーズと StorEdge 6900 シリーズシステムのどちらを追加するかを確認します。

    • StorEdge 3900 シリーズシステムを追加する場合は、手順 26 へ進んでください。

    • StorEdge 6900 シリーズシステムを追加する場合: ノード A で、次に示すように cfgadm コマンドを使用して仮想化エンジン (VE) コントローラ状態を表示し、VE コントローラを有効にします。


      # cfgadm -al
      # cfgadm -c configure <c::controller id>
      

    cfgadm コマンドとこのコマンドのオプションの詳細は、cfgadm(1M) のマニュアルページを参照してください。

  25. (省略可能) 新しい StorEdge 6900 シリーズシステムの VE に VLUN を設定します。

    クラスタ内で VLUN を設定する手順については、「StorEdge 6900 シリーズシステムの仮想化エンジンに VLUN を設定する方法」を参照してください。

  26. (省略可能) ノード A で、新しいアレイにデバイス ID (DID) が割り当てられたか確認します。


    # scdidadm -l
    

  27. ノード B にホストアダプタを取り付ける必要があるかどうかを確認します。

    • 必要がない場合は、手順 34 へ進んでください。

    • ノード B にホストアダプタを取り付ける必要がある場合は、手順 28 から継続してください。

  28. 取り付けようとしているホストアダプタが、ノード B での初めてのホストアダプタかどうかを確認します。

    • 初めてではない場合は、手順 30 へ進んでください。

    • 初めてのホストアダプタである場合は、そのホストアダプタに必要なサポートパッケージがこのノードにすでにインストールされているかどうかを確認します。必要なパッケージは以下のとおりです。


      # pkginfo | egrep Wlux
      system 				SUNWluxd 					Sun Enterprise Network Array sf Device Driver
      system 				SUNWluxdx					Sun Enterprise Network Array sf Device Driver (64-bit)
      system 				SUNWluxl 					Sun Enterprise Network Array socal Device Driver
      system 				SUNWluxlx 					Sun Enterprise Network Array socal Device Driver (64-bit)
      system 				SUNWluxop 					Sun Enterprise Network Array firmware and utilities
      system 				SUNWluxox 					Sun Enterprise Network Array libraries (64-bit)

  29. 必要なサポートパッケージがすでにインストールされていますか。

    • すべてインストールされている場合は、手順 30 へ進んでください。

    • 欠けているサポートパッケージがあれば、それらをインストールしてください。

    サポートパッケージは、Solaris CD-ROM の Product ディレクトリに入っています。欠けているパッケージの追加には、pkgadd コマンドを使用してください。


    # pkgadd -d path_to_Solaris/Product Pkg1 Pkg2 Pkg3 ... PkgN
    

  30. ノード B からすべてのリソースグループとデバイスグループを削除します。


    # scswitch -S -h nodename
    

  31. ノード B を停止して電源を切ります。


    # shutdown -y -g0 -i0
    

    ノードを停止して電源を切る手順については、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。

  32. ノード B にホストアダプタを取り付けます。

    ホストアダプタを取り付ける手順については、ホストアダプタとノードに付属しているマニュアルを参照してください。

  33. ノード B に電源を入れて起動します。


    {0} ok boot -x
    

    詳細は、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。

  34. 必要に応じ、ノード B のホストアダプタファームウェアをアップグレードします。

    必要なパッチまたはファームウェアのダウンロード情報を示した Sun の EarlyNotifier Web ページにアクセスする方法については、『Sun Cluster 3.0 5/02 ご使用にあたって』を参照してください。ホストアダプタファームウェアパッチの適用方法については、ファームウェアパッチの README ファイルを参照してください。

  35. 必要に応じ、FC スイッチに GBIC を取り付けます。

    FC スイッチに GBIC を取り付ける手順については、『SANbox 8/16 Segmented Loop Switch User's Manual』を参照してください。

  36. StorEdge 3900 または 6900 シリーズシステム内の FC スイッチとノード B 間を光ファイバケーブルで接続します (図 E-1 の例を参照)。

  37. 必要に応じ、ノード B に StorEdge T3+ アレイサポートに必要な Solaris パッチをインストールします。

    StorEdge T3+ アレイサポートに必要な Solaris パッチの一覧は、『Sun StorEdge T3 Disk Tray Release Notes』を参照してください。

  38. Sun Download Center Web サイト http://www.sun.com/storage/san/ から、Sun StorEdge Traffic Manager ソフトウェアサポートに必要なパッチまたはソフトウェアをノード B にインストールします。

    ソフトウェアのインストール手順については、この Web サイトの説明を参照してください。

  39. 手順 38 でインストールしたソフトウェア内の Sun StorEdge Traffic Manager ソフトウェア機能をアクティブにします。

    Sun StorEdge Traffic Manager ソフトウェア機能をアクティブにするには、インストールされている /kernel/drv/scsi_vhci.conf ファイルを手動で編集し、mpxio-disable パラメータを no に変更します。


    mpxio-disable="no"
    

  40. ノード B を停止します。


    # shutdown -y -g0 -i0
    

  41. ノード B で再構成起動を行い、新しい Solaris デバイスファイルとリンクを作成します。


    {0} ok boot -r
    

  42. すべてのノードで、/devices および /dev エントリを更新します。


    # devfsadm -C 
    # devfsadm
    

  43. すべてのノードで、DID インスタンスのパスを更新します。


    # scdidadm -C 
    # scdidadm -r
    

  44. StorEdge 3900 シリーズと StorEdge 6900 シリーズシステムのどちらを追加するかを確認します。

    • StorEdge 3900 シリーズシステムを追加する場合は、手順 46 へ進んでください。

    • StorEdge 6900 シリーズシステムを追加する場合: ノード A で、次に示すように cfgadm コマンドを使用して仮想化エンジン (VE) コントローラ状態を表示し、VE コントローラを有効にします。


      # cfgadm -al
      # cfgadm -c configure <c::controller id>
      

    cfgadm コマンドとこのコマンドのオプションの詳細は、cfgadm(1M) のマニュアルページを参照してください。

  45. (省略可能) 新しい StorEdge 6900 シリーズシステムの VE に VLUN を設定します。

    クラスタ内で VLUN を設定する手順については、「StorEdge 6900 シリーズシステムの仮想化エンジンに VLUN を設定する方法」を参照してください。

  46. (省略可能) ノード B で、新しいアレイに DID が割り当てられていることを確認します。


    # scdidadm -l
    

  47. 新しいアレイに接続されているノードの 1 つで、SCSI の予約状態をリセットします。


    # scdidadm -R n
    

    パラメータ n は、クラスタに追加するアレイ LUN の DID インスタンスです。


    注 -

    同じノード上でクラスタに追加するアレイ LUN ごとに、このコマンドを繰り返してください。


  48. 手順 6 で確認したリソースグループとデバイスグループをすべてのノードに返します。


    # scswitch -z -g resource-group -h nodename
    # scswitch -z -D device-group-name -h nodename
    

    詳細は、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。

  49. ボリューム管理作業を行い、新しい論理ボリュームをクラスタに取り込みます。

    詳細は、Solstice DiskSuite または VERITAS Volume Manager のマニュアルを参照してください。

稼動しているクラスタから StorEdge 3900 または 6900 シリーズシステムを削除する方法

この作業は、稼動しているクラスタから StorEdge 3900 または 6900 シリーズシステム、および関連するサブミラーを永続的に削除する場合に行なってください。

この手順では、作業を開始するクラスタノードを「ノード A」、他方のノードを「ノード B」として示しています。


Caution - Caution -

この作業を実行している間、削除する StorEdge 3900 または 6900 シリーズシステム内の各 StorEdge T3+ アレイパートナーグループ内にあるデータにアクセスすることはできません。


  1. 必要に応じ、削除する StorEdge 3900 または 6900 シリーズシステム内の各 StorEdge T3+ パートナーグループに関連付けられたデータベーステーブル、データサービス、およびボリュームをすべてバックアップします。

  2. 必要に応じ、Solstice DiskSuite または VERITAS Volume Manager の該当するコマンドを実行し、削除する StorEdge 3900 または 6900 シリーズシステム内の各 StorEdge T3+ パートナーグループからサブミラーを切り離し、それらのパートナーグループに対するすべての入出力作業を停止します。

    詳細は、Solstice DiskSuite または VERITAS Volume Manager のマニュアルを参照してください。

  3. Solstice DiskSuite または VERITAS Volume Manager の該当するコマンドを実行し、削除する StorEdge 3900 または 6900 シリーズシステム内の各 LUN または VLUN に対する参照を削除します。

    詳細は、Solstice DiskSuite または VERITAS Volume Manager のマニュアルを参照してください。

  4. すべてのノードで、稼動しているリソースグループとデバイスグループを確認します。

    この情報を記録するのは、この作業の 手順 17 でこの情報を使用してリソースグループとデバイスグループをこれらのノードに返すためです。


    # scstat
    

  5. ノード A からすべてのリソースグループとデバイスグループを削除します。


    # scswitch -S -h nodename
    

  6. ノード A を停止します。


    # shutdown -y -g0 -i0
    

    ノードを停止する手順については、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。

  7. ノード A と StorEdge 3900 または 6900 シリーズシステム内の FC スイッチを接続したケーブルを外します。

  8. ノード A が起動しないようにして電源を切ります。

    詳細は、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。

  9. ノード A をクラスタモードで起動します。


    {0} ok boot
    

  10. ノード B からすべてのリソースグループとデバイスグループを削除します。


    # scswitch -S -h nodename
    

  11. ノード B を停止します。


    # shutdown -y -g0 -i0
    

  12. ノード B と StorEdge 3900 または 6900 シリーズシステム内の FC スイッチを接続したケーブルを外します。

  13. ノード B が起動しないようにして電源を切ります。

    詳細は、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。

  14. ノード B をクラスタモードで起動します。


    {0} ok boot
    

    詳細は、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。

  15. すべてのノードで、/devices および /dev エントリを更新します。


    # devfsadm -C 
    # devfsadm
    

  16. すべてのノードで、DID インスタンスのパスを更新します。


    # scdidadm -C 
    # scdidadm -r
    

  17. 手順 4 で確認したリソースグループとデバイスグループをすべてのノードに返します。


    # scswitch -z -g resource-group -h nodename
    # scswitch -z -D device-group-name -h nodename
    

稼動しているクラスタで仮想エンジンを交換する方法 (StorEdge 6900 シリーズのみ)

この作業は、稼動しているクラスタ内で StorEdge 6900 シリーズシステムの仮想化エンジン (VE) を交換する場合に行なってください。

  1. VE ハードウェアを交換します。

    Sun StorEdge 3900 and 6900 Series Reference Manual』内の作業手順に従ってください。

  2. 任意のクラスタノード上で、次に示すように cfgadm コマンドを使用して仮想化エンジン (VE) コントローラ状態を表示し、VE コントローラを有効にします。


    # cfgadm -al
    # cfgadm -c configure <c::controller id>
    

    cfgadm コマンドとこのコマンドのオプションの詳細は、cfgadm(1M) のマニュアルページを参照してください。

稼動しているクラスタ内でノードとスイッチ間のコンポーネントを交換する方法

この作業は、稼動しているクラスタ内でノードとスイッチ間に設置された次のコンポーネントを交換する場合に行なってください。

  1. 交換するコンポーネントに接続されているノードで、そのノードで稼動しているリソースグループとデバイスグループを確認します。

    この情報を記録するのは、この作業の 手順 4 でこの情報を使用してリソースグループとデバイスグループをこれらのノードに返すためです。


    # scstat
    

  2. すべてのリソースグループとデバイスグループを他方のノードに移動します。


    # scswitch -S -h nodename
    

  3. ノードとスイッチ間のコンポーネントを交換します。

    • ノードと FC スイッチ間の光ファイバケーブルを交換する手順については、『Sun StorEdge network FC switch-8 and switch-16 Installation and Configuration Guide』を参照してください。

    • FC スイッチの GBIC を交換する手順については、『SANbox 8/16 Segmented Loop Switch User's Manual』を参照してください。

  4. 手順 1 で確認したリソースグループとデバイスグループを、交換したコンポーネントに接続されているノードに返します。


    # scswitch -z -g resource-group -h nodename
    # scswitch -z -D device-group-name -h nodename
    

稼動しているクラスタから StorEdge T3/T3+ アレイを削除する方法

この作業は、稼動しているクラスタ内の StorEdge 3900 または 6900 シリーズシステムから StorEdge T3/T3+ アレイパートナーグループとそれらのサブミラーを永続的に削除する場合に行なってください。

この手順では、作業を開始するクラスタノードを「ノード A」、他方のノードを「ノード B」として示しています。


Caution - Caution -

この作業を実行している間、削除する各 StorEdge T3+ アレイパートナーグループ上にあるデータにアクセスすることはできません。


  1. 必要に応じ、削除する各パートナーグループに関連付けられたデータベーステーブル、データサービス、およびボリュームをすべてバックアップします。

  2. 必要に応じ、Solstice DiskSuite または VERITAS Volume Manager の該当するコマンドを実行し、削除する各アレイまたはパートナーグループからサブミラーを切り離し、そのアレイまたはパートナーグループに対するすべての入出力作業を停止します。

    詳細は、Solstice DiskSuite または VERITAS Volume Manager のマニュアルを参照してください。

  3. Solstice DiskSuite または VERITAS Volume Manager の該当するコマンドを実行し、削除するアレイまたはパートナーグループに属する各 LUN に対する参照を削除します。

    詳細は、Solstice DiskSuite または VERITAS Volume Manager のマニュアルを参照してください。

  4. すべてのノードで、稼動しているリソースグループとデバイスグループを確認します。

    この情報を記録するのは、この作業の 手順 22 でこの情報を使用してリソースグループとデバイスグループをこれらのノードに返すためです。


    # scstat
    

  5. ノード A からすべてのリソースグループとデバイスグループを削除します。


    # scswitch -S -h nodename
    

  6. ノード A を停止します。


    # shutdown -y -g0 -i0
    

    ノードを停止する手順については、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。

  7. 両方のアレイから FC スイッチに接続している光ファイバケーブルを外し、続いて Ethernet ケーブルを外します。

  8. 削除しようとしているアレイが、ノード A 上の FC スイッチに接続された最後のアレイかどうかを確認します。

    • 最後のアレイでない場合は、手順 12 へ進んでください。

    • 最後のアレイである場合は、ノード A とこのアレイに接続されたスイッチ間の光ファイバケーブルを外してください。

    光ファイバケーブルを外す手順については、『Sun StorEdge T3 and T3+ Array Configuration Guide』を参照してください。

  9. ノード A からホストアダプタを削除するかどうかを確認します。

    • 削除しない場合は、手順 12 へ進んでください。

    • 削除する場合は、ノード A の電源を切ってください。

  10. ノード A からホストアダプタを削除します。

    ホストアダプタを削除する手順については、ホストアダプタとノードに付属しているマニュアルを参照してください。

  11. ノード A が起動しないようにして電源を切ります。

    詳細は、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。

  12. ノード A をクラスタモードで起動します。


    {0} ok boot
    

  13. ノード B からすべてのリソースグループとデバイスグループを削除します。


    # scswitch -S -h nodename
    

  14. ノード B を停止します。


    # shutdown -y -g0 -i0
    

  15. 削除しようとしているアレイが、ノード B 上の FC スイッチに接続された最後のアレイかどうかを確認します。

    • 最後のアレイでない場合は、手順 19 へ進んでください。

    • 最後のアレイである場合は、この FC スイッチとノード B を接続している光ファイバケーブルを外してください。

    光ファイバケーブルを外す手順については、『Sun StorEdge T3 and T3+ Array Configuration Guide』を参照してください。

  16. ノード B からホストアダプタを削除するかどうかを確認します。

    • 削除しない場合は、手順 19 へ進んでください。

    • 削除する場合は、ノード B の電源を切ってください。

  17. ノード B からホストアダプタを削除します。

    ホストアダプタを削除する手順については、ホストアダプタとノードに付属しているマニュアルを参照してください。

  18. ノード B が起動しないようにして電源を切ります。

    詳細は、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。

  19. ノード B をクラスタモードで起動します。


    {0} ok boot
    

    詳細は、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。

  20. すべてのノードで、/devices および /dev エントリを更新します。


    # devfsadm -C 
    # devfsadm
    

  21. すべてのノードで、DID インスタンスのパスを更新します。


    # scdidadm -C 
    # scdidadm -r
    

  22. 手順 4 で確認したリソースグループとデバイスグループをすべてのノードに返します。


    # scswitch -z -g resource-group -h nodename
    # scswitch -z -D device-group-name -h nodename
    

StorEdge T3+ アレイファームウェアをアップグレードする方法

アレイパートナーグループがクラスタノードのボリュームのサブミラーをサポートするように構成されているかどうかに応じて次に示す手順の一方を利用し、StorEdge 3900 または 6900 シリーズシステム内の StorEdge T3+ アレイのファームウェアをアップグレードしてください。StorEdge T3+ アレイファームウェアには、コントローラファームウェア、ユニットインターコネクトカード (UIC) ファームウェア、EPROM ファームウェア、およびディスクドライブファームウェアが含まれます。


注 -

どのファームウェアについても、それらに付属している README ファイルに必ず目を通して最新情報や特記がないか確認してください。


サブミラー化されたデータをサポートするアレイのファームウェアをアップグレードする方法


Caution - Caution -

この作業は、一度に 1 台のアレイで行なってください。この作業では、アップグレードするアレイをリセットする必要があります。一度に複数のアレイをリセットすると、クラスタはデータにアクセスできなくなります。


  1. サブミラーが属しているディスクグループまたはディスクセットを現在所有しているノード上で、ファームウェアをアップグレードするアレイのサブミラーを切り離します (この手順では、このノードをノード A、他方のノードをノード B と呼びます)。

    詳細は、Solstice DiskSuite または VERITAS Volume Manager のマニュアルを参照してください。

  2. パートナーグループの 2 台のアレイから、アレイとスイッチ間を接続している両方の光ファイバケーブルを外します。

  3. コントローラ、ディスクドライブ、および UIC の各ファームウェアパッチを適用します。

    必要となる StorEdge T3+ アレイパッチの一覧は、『Sun StorEdge T3 Disk Tray Release Notes』を参照してください。ファームウェアパッチの適用方法については、各ファームウェアパッチの README ファイルを参照してください。ファームウェアレベルの確認方法については、『Sun StorEdge T3 and T3+ Array Installation, Operation, and Service Manual』を参照してください。

  4. アレイをリセットします。

    アレイのリセット方法については、『Sun StorEdge T3 and T3+ Array Installation, Operation, and Service Manual』を参照してください。

  5. StorEdge T3+ disable コマンドを使用し、ノード B に接続されたアレイコントローラを無効にします。これは、残ったコントローラですべての論理ボリュームを制御するための処置です。


    t3:/:<#> disable uencidctr
    

    disable コマンドの詳細は、『Sun StorEdge T3 and T3+ Array Administrator's Guide』を参照してください。

  6. パートナーグループの 2 台のアレイに対し、アレイとスイッチ間を接続する両方の光ファイバケーブルを接続し直します。

  7. パートナーグループに接続している 1 つのノードで format コマンドを使用し、そのノードでアレイコントローラが再び確認できるようになったことを確認します。


    # format
    

  8. StorEdge T3+ enable コマンドを使用し、手順 5 で無効にしたアレイコントローラを有効にします。


    t3:/:<#> enable uencidctr
    

  9. 手順 1 で切り離したサブミラーを接続し直し、それらの同期を取り直します。

    詳細は、Solstice DiskSuite または VERITAS Volume Manager のマニュアルを参照してください。

サブミラー化されたデータをサポートしないアレイのファームウェアをアップグレードする方法

パートナーペア構成では、ミラー化されていないデータが存在することもあります。しかし、(この作業で説明しているように) このような場合にはファームウェアのアップグレード時にクラスタを停止する必要があります。

  1. クラスタ全体を停止します。


    # scshutdown -y -g0
    

    クラスタを停止する手順の詳細は、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。

  2. コントローラ、ディスクドライブ、および UIC の各ファームウェアパッチを適用します。

    必要となる StorEdge T3+ アレイパッチの一覧は、『Sun StorEdge T3 Disk Tray Release Notes』を参照してください。ファームウェアパッチの適用方法については、各ファームウェアパッチの README ファイルを参照してください。ファームウェアレベルの確認方法については、『Sun StorEdge T3 and T3+ Array Installation, Operation, and Service Manual』を参照してください。

  3. アレイをリセットします。

    アレイのリセット方法については、『Sun StorEdge T3 and T3+ Array Installation, Operation, and Service Manual』を参照してください。

  4. すべてのノードを起動してクラスタに戻します。


    ok boot 
    

    クラスタ内でノードを起動する手順の詳細は、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。

  5. パートナーグループに接続している 1 つのノードで format コマンドを使用し、そのノードでアレイコントローラが再び確認できるようになったことを確認します。


    # format
    

稼動しているクラスタ内で故障ディスクドライブを交換する方法

この作業は、稼動しているクラスタ内で StorEdge 3900 または 6900 シリーズシステムに設置された StorEdge T3+ アレイ内の故障したディスクドライブ 1 台を交換する場合に行なってください。


Caution - Caution -

長時間に渡って FRU (現場交換可能ユニット) を取り外しておくと、熱による障害が発生する可能性があります。この障害を防ぐため、StorEdge T3+ アレイは、30 分を超えてコンポーネントが取り外された場合には一定の順序で停止するように 設計されています。したがって、FRU 交換の作業を開始する前に、交換部品をただちに使用できるように準備しておく必要があります。FRU は 30 分以内に交換する必要があります。これを過ぎると、StorEdge T3+ アレイおよび接続されているすべての StorEdge T3+ アレイが停止し、電源が落ちます。


  1. 故障したディスクドライブがアレイ LUN の可用性に影響を与えたかどうかを確認します。

    • 影響を与えなかった場合は、手順 2 へ進んでください。

    • LUN の可用性に影響を与えた場合は、その LUN をボリューム管理制御から外してください。

      詳細は、Solstice DiskSuite または VERITAS Volume Manager のマニュアルを参照してください。

  2. アレイ内のディスクドライブを交換します。

    ディスクドライブの交換方法については、『Sun StorEdge T3 and T3+ Array Installation, Operation, and Service Manual』を参照してください。

  3. 手順 1 でボリューム管理制御から LUN を外したかどうかを確認します。

    • 外さなかった場合は、この作業はここで終了します。

    • ボリューム管理制御から LUN を外した場合は、ここでその LUN をボリューム管理制御に戻します。

      詳細は、Solstice DiskSuite または VERITAS Volume Manager のマニュアルを参照してください。

稼動しているクラスタ内でノードのホストアダプタを交換する方法

この作業は、稼動しているクラスタ内で故障ホストアダプタを交換する場合に行なってください。この作業では、交換する故障ホストアダプタを抱えるノードを「ノード A」、他方のノードを「ノード B」と呼びます。

  1. すべてのノードで、稼動しているリソースグループとデバイスグループを確認します。

    この情報を記録するのは、この作業の 手順 8 でこの情報を使用してリソースグループとデバイスグループをこれらのノードに返すためです。


    # scstat
    

  2. ノード A からすべてのリソースグループとデバイスグループを削除します。


    # scswitch -S -h nodename
    

  3. ノード A を停止します。


    # shutdown -y -g0 -i0
    

  4. ノード A の電源を切ります。

    詳細は、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。

  5. 故障したホストアダプタを交換します。

    ホストアダプタの削除と追加の方法については、ノードに付属しているマニュアルを参照してください。

  6. ノード A に電源を入れます。

    詳細は、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。

  7. ノード A をクラスタモードで起動します。


    {0} ok boot
    

    詳細は、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。

  8. 手順 1 で確認したリソースグループとデバイスグループをすべてのノードに返します。


    # scswitch -z -g resource-group -h nodename
    # scswitch -z -D device-group-name -h nodename
    

    詳細は、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。