Sun Cluster 2.2 Cluster Volume Manager ガイド

インストールとリリースノート

この章では、Solaris 2.6 用の Cluster Volume Manager (CVM) リリース 2.2.1 のインストール手順とリリース情報を示します。

この CVM リリースは Solaris 2.6 上でテスト済みであり、Solaris 2.6 を必要とします。

CVM は Veritas Volume Manager (VxVM) のクラスタ対応バージョンであり、Oracle Parallel Server 構成で使用できるように設計されています。

このマニュアルは『Sun StorEdge Volume Manager リリース情報』および『Sun StorEdge Volume Manager 導入の手引き』を補足するものです。SSVM についての一般的な情報は、Sun StorEdge Volume Manager 2.6 マニュアルセットを参照してください。


注 -

パッケージをインストールする前に、この章を通読してください。


この章の内容は次のとおりです。

お問い合わせ先

詳細につきましては、ご購入先にお問い合わせください。

新機能と変更点

Cluster Volume Manager に関連する諸機能については、第 2 章「Cluster Volume Manager」を参照してください。リリース 2.2.1 の新機能は、次のとおりです。

Visual Administrator と CVM

Visual Administrator により CVM では次の機能を利用できます。

Cluster Volume Manager のインストール

この節では、CVM をインストールまたはアップグレードする方法を説明します。CD-ROM で提供されるパッケージは、Solaris 2.6 を実行するシステムにインストールできます。CVM 2.2.1 は Sun Cluster 2.2 ソフトウェアを必要とします。Sun Cluster 2.2 のインストールまたはアップグレードを終了してから、CVM 2.2.1 をインストールしてください。

CVM のインストールは次の 2 段階で行います。

  1. システムへの統合パッケージのインストール。「初めて CVM をインストールする場合」または 、「CVM リリース 2.2.1 にアップグレードする場合」を参照してください。

  2. CVM の構成と設定。「rootdg の作成」および「共有ディスクの構成」を参照してください。

インストール前の作業

CVM を初めてインストールする場合は、『Sun StorEdge Volume Manager 導入の手引き』でインストール前の諸事項の確認を行なってください。


PATH=/sbin:/usr/sbin:$PATH export PATH

C シェル (csh または tcsh) を使用する場合は、次のコマンドを使用してください。


setenv PATH /sbin:/usr/sbin:${PATH}

注 -

CVM を SPARCstorageTM Array と併用する場合は、ファームウェアレベル 3.4 以上を使用する必要があります。


初めて CVM をインストールする場合


注 -

CVM は Solaris 2.6 を必要とします。したがって CVM をインストールする前に動作環境をアップグレードしなければならない場合があります。


  1. CVM 2.2.1 CD-ROM をマウントします。

    /cdrom にマウントされたファイルシステムとして CVM 2.2.1 が表示されます。

  2. CVM パッケージのあるディレクトリに移動します。


    # cd /cdrom/cdrom0/CVM_2_2_1/Product
    
  3. pkgadd コマンドを使用して次のパッケージをインストールします。


    # pkgadd -d . SUNWvxvm SUNWvxva SUNWvmman SUNWvmdev
    

    注意 - 注意 -

    各パッケージは上記の順序でインストールする必要があります。


  4. 「rootdg の作成」を参照し、CVM のインストールを続行します。

CVM リリース 2.2.1 にアップグレードする場合

Sun Cluster 2.2 で動作する CVM リリース 2.2.1 は Solaris 2.6 を必要とするため、動作環境も同時にアップグレードしなければならない場合があります。推奨される手順としては、必要に応じて動作環境を最初にアップグレードし、次に Sun Cluster 2.2 のインストールまたはアップグレードを行い、最後に CVM をアップグレードします。


注 -

ディスクをカプセル化している場合は、手順 6までを実行し、それから動作環境のアップグレードを行う必要があります。


CVM の旧バージョンからのアップグレード

Sun Cluster 2.0 または 2.1 をインストールしている場合には、次の手順で CVM ソフトウェアと動作環境をアップグレードしてください。

  1. 動作環境をアップグレードするのに十分な領域が /opt にあることを確認します。

  2. ボリューム上に //usr/var/opt のいずれかのファイルシステムを定義している場合、それらの各ボリュームの少なくとも 1 つのプレックスが、シリンダ境界で始まる 1 つのサブディスクから形成されていることを確認します。

    上記は必須の作業です。アップグレードプロセスの一部分として、直接接続ディスクパーティションを使用するボリューム上にファイルシステムを一時的に配置する処理が含まれます。Solaris オペレーティング環境では、ディスクパーティションがシリンダ境界で始まることが要求されます。この変換は、アップグレードスクリプトによって必要に応じて自動的に処理されます。アップグレードスクリプトによって何らかの問題 (シリンダ境界への不整列など) が検出されると、問題点の説明が表示され、アップグレードプロセスが停止します。

  3. CVM 2.2.1 CD-ROM をマウントします。

    /cdrom にマウントされたファイルシステムとして CVM 2.2.1 が表示されます。

  4. upgrade_start スクリプトを実行し、CVM の旧リリースを削除する準備をします。


    # /cdrom/cdrom0/CVM_2_2_1/Tools/scripts/upgrade_start
    

    upgrade_start スクリプトによってファイルシステムを含むボリュームが検索されます。特定の重要なファイルシステムをパーティションを使用するように戻す必要があれば、その変換はスクリプトによって処理されます。

  5. シングルユーザーモードで再起動します (uadmin 2 3 などのコマンドを使用)。

  6. ボリュームマネージャパッケージを削除します。


    phys-hahost1# pkgrm SUNWvmdev SUNWvmman SUNWvxva SUNWvxvm
    
  7. マシンを停止します (uadmin 2 0 などのコマンドを使用)。

  8. (省略可能) 必要な場合、オペレーティング環境を Solaris 2.6 にアップグレードします。

    Solaris ソフトウェア環境のアップグレード方法については、Solaris のインストール関連のマニュアルを参照してください。

  9. (CVM CD-ROM 上で) CVM パッケージのあるディレクトリに移動します。


    # cd /cdrom/cdrom0/CVM_2_2_1/Product/	
    
  10. pkgadd コマンドを使用して次のパッケージをインストールします。


    # pkgadd -d . SUNWvxvm SUNWvxva SUNWvmman SUNWvmdev
    
  11. 次のように入力してアップグレードを終了します。


    # /cdrom/cdrom0/CVM_2_2_1/Tools/scripts/upgrade_finish
    
  12. マルチユーザーモードで再起動します。

    この時点でアップグレード前の構成が有効となり、ボリューム上に以前定義されていたファイルシステムが定義およびマウントされた状態となります。

  13. 「rootdg の作成」を参照し、CVM のインストールを続行します。

rootdg の作成

CVM ソフトウェアの読み込みが完了したら、次にデフォルトのディスクグループ rootdg を作成する必要があります。1 つの方法として、カプセル化プロセスを使用してルートディスクを CVM の制御下に置く方法があります。カプセル化の結果として作成されたディスクグループは、rootdg ディスクグループになります。ただし、このパッケージを頻繁にアップグレードすることが予測される場合には、ルートディスクがカプセル化されていると、新バージョンにアップグレードする作業やエラーから回復する作業が難しくなるため、この方法では不都合な場合があります。ルートディスクをカプセル化しない場合は、vxinstall を使用して他のいずれかディスクをカプセル化し、(CVM を起動するために必要な) rootdg を作成することができます。もう 1 つの方法として、(共有せずカプセル化していないディスクのパーティション上に) 単純なボリュームマネージャディスクを作成し、それを rootdg として使用する方法があります。

この節では、カプセル化を使用してルートディスクグループを作成する方法を説明します。Sun では単純なディスクを使用する方法は推奨しません。rootdg を作成したら、「共有ディスクの構成」に進んでください。

ルートディスクのカプセル化

ルートディスクをカプセル化するには、次の手順で rootdg を作成してください。

  1. vxinstall を起動し、『Sun StorEdge Volume Manager 2.6 導入の手引き』で説明されているカスタムインストールの手順に従って、ルートディスクだけをカプセル化します。

    他のディスクについては、すべて「Leave these disks alone」オプションを選択します。

  2. vxinstall を使用してルートディスクをカプセル化したら、システムを再起動します。

    vxinstall コマンドによって rootdg が自動的に作成されます。

共有ディスクの構成

CVM を初めてインストールする場合、または既存のクラスタにディスクを追加する場合には、新しい共有ディスクを構成する必要があります。CVM をアップグレードする場合には、共有ディスクが存在することを確認してください。


注 -

共有ディスクの構成は、1 つのノードからのみ行うようにしてください。ディスクを共有するかどうかは CVM ソフトウェアでは判断できないため、どれが共有ディスクかをユーザーが指定する必要があります。


構成作業の実行中は、他のノードから共有ディスクをアクセスしないよう注意してください。

既存の共有ディスクを確認するには

CVM の旧リリースを CVM 2.2.1 にアップグレードする場合は、共有ディスクグループが存在するかどうかを確認してください。

  1. すべてのノードでクラスタを起動します。

  2. すべてのノードで次のコマンドを入力します。


    # vxdg list
    

    この結果、以前存在していた共有ディスクグループが表示されます。CVM の旧バージョンで作成された DRL ログは、CVM 2.2.1 には小さすぎる場合があります。詳細については 「ダーティーリージョンログと CVM」を参照してください。

既存の SEVM 2.x ディスクを共有ディスクに変換するには

SEVM 2.x を CVM 2.2.1 にアップグレードし、既存のディスクグループを共有する場合は、次の手順で共有ディスクを構成してください。

  1. 少なくとも 1 つのノードでクラスタを起動します。

    2 ノードクラスタの場合は、1 つのノードでクラスタを起動します。4 ノードクラスタの場合は、3 つのノードでクラスタを起動します。

  2. すべてのディスクグループを一覧表示します。


    # vxdg list
    
  3. 共有するディスクグループをデポートします。


    # vxdg deport groupname
    
  4. 共有するディスクグループをインポートします。


    # vxdg -s import groupname
    

    この結果、共有ディスクグループが共有済みとしてマークされ、それらにクラスタ ID が付けられ、他のノードが共有ディスクを認識できるようになります。

    ダーティーリージョンログを使用している場合は、それらのログが有効であることを確認してください。有効でない場合は、より大きいログに交換してください。

  5. すべての共有ディスクグループについて共有フラグを表示します。


    # vxdg list
    

    以上でディスクグループが共有可能な状態になりました。

  6. クラスタが 1 つのノードだけで動作している場合は、他のクラスタノードを起動します。

  7. 各ノードで準備が整ったら、vxdg list コマンドを入力します。

    以前に表示されたものと同じ共有ディスクグループが一覧表示されます。

新しいディスクを構成するには

CVM を初めてインストールし設定する場合は、次のように共有ディスクを構成してください。

  1. 少なくとも 1 つのノードでクラスタを起動します。クラスタに複数のノードが含まれる場合は、手順 3 と 4 はマスターノードでのみ実行してください。CVM の動作モードは、vxdctl -c mode により表示できます。

  2. vxdisksetup を実行して、ノード上の個々の共有ディスクを初期化します。その後、すべてのノードで vxdctl enable を実行します。

    構成情報をディスクごとに格納しない場合、または、より大きい領域を使用してこの情報を格納する場合には、vxdisksetup を使用してディスクを選択できます。

  3. 共有ディスク上にディスクグループを作成します。

    この作業は vxdg または Visual Administrator を使用して行うことができます。共有ディスクグループを作成するには、vxdg-s オプションを指定します。

  4. ディスクグループ内にボリュームを作成します。

    この作業は vxassist または Visual Administrator を使用して行うことができます。ボリュームの型は gen である必要があります。RAID5 ボリュームは作成しないでください。

    ログ用のサブディスクを作成する前に、「ダーティーリージョンログと CVM」を参照してください。

  5. クラスタが 1 つのノードだけで動作している場合は、他のクラスタノードを起動します。

    各ノードの準備が整ったら、vxdg list コマンドを入力します。以前に表示されたものと同じ共有ディスクグループが一覧表示されます。

ディスクの予約

この節の内容は、2 ノード構成にのみ適用されます。

Sun Cluster は障害防止の手段として、1 つのノードだけがアクティブのとき共有ディスクを予約します。その結果、アクセスを許可されていないクラスタ外のホストによる共有ディスクのアクセスが防止されます。この状況のとき、クラスタから切り離されたノード上でコマンド vxdisk list を実行すると、このようなコントローラ上のすべてのディスクが error 状態と表示される可能性があります。vxdisk のより詳細なオプションを使用すると、フラグ unavailable が表示されます。このクラスタに新しいノードが結合されると、Sun Cluster ソフトウェアはコントローラを解放します。CVM はこれらのディスクのアクセスを試み、成功した場合、ディスクは online 状態に戻ります。1 つのシステムが起動したとき、他のシステムがディスクを予約していた場合には、起動側のシステムにはディスクが見えない可能性があり、vxdisk を実行しても共有ディスクがまったく表示されない可能性があります。システムがクラスタに結合されると、共有ディスクが見えるようになります。

ソフトウェアの制約事項と既知の問題

CVM 2.2.1 に関して、次の使用上の問題点が判明しています。


Resource temporarily unavailable

[vxclust] return from cluster_establish is configuration
daemon error -1
Resource temporarily unavailable

master has disconnected

後で再試行すれば、正常に結合できます。

切り離したノードがマスターの場合は、両方のノードでディスク関連のエラーメッセージが表示され、もう一方のノードが異常終了します。結合中のノードは最終的にクラスタに結合し、マスターになります。


cannot assign minor #

同時に、次のコンソールメッセージも表示されます。


WARNING:minor number ### disk group group in use