この節では、Sun Cluster 3.2 リリースのマニュアル、オンラインヘルプ、マニュアルページの誤りや記載漏れについて説明します。
この節では、『Sun Cluster の概念 (Solaris OS 版)』内の記述の誤りと記載漏れについて説明します。
『Sun Cluster の概念 (Solaris OS 版)』の「Sun Cluster トポロジ」の節にある次の記述は、Sun Cluster 3.2 リリースにはすでに該当しません。「x86 ベースのシステムで構成された Sun Cluster は、1 つのクラスタで 2 つのノードをサポートします。」
この記述は、次のように読み替えてください。「x86 ベースのシステムで構成された Sun Cluster 構成は、Oracle RAC を実行する 1 つのクラスタでは最大 8 つのノードをサポートし、Oracle RAC を実行しない 1 つのクラスタでは最大 4 つのノードをサポートします。」
この節では、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』内の記述の誤りや記載漏れについて説明します。
Sun Cluster Geographic Edition ソフトウェアも実行しているクラスタをアップグレードする場合、Sun Cluster ソフトウェアのアップグレードを開始する前に実行すべき追加の準備手順があります。これらの手順には、Sun Cluster Geographic Edition インフラストラクチャーのシャットダウンが含まれます。アップグレードする前に、『Sun Cluster Geographic Edition のインストール』の「Sun Cluster Geographic Edition ソフトウェアのアップグレード」を参照してください。これらの手順には、いつ Sun Cluster Software Installation Guide に戻って Sun Cluster ソフトウェアアップグレードを実行するべきかも記述されています。
この節では、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』内の記述の誤りと記載漏れについて説明します。
『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』の「リソースタイププロパティー」 で、Failover リソースプロパティーの説明に、非大域ゾーンでのスケーラブルサービスのサポートに関する記述が抜けています。このサポートは、リソースタイプの Failover プロパティーが FALSE に設定され、リソースの Scalable プロパティーが TRUE に設定されているリソースに適用されます。このプロパティー設定の組み合わせは、SharedAddress リソースを使用するスケーラブルサービスがネットワークの負荷分散を実行することを示しています。Sun Cluster 3.2 リリースでは、非大域ゾーンで動作するリソースグループでこのタイプのスケーラブルサービスを構成できます。ただし、スケーラブルサービスを同じノードの複数の非大域ゾーンで実行するように構成することはできません。
この節では、『Sun Cluster Data Service for MaxDB Guide for Solaris OS 』内の記述の誤りと記載漏れについて説明します。
Sun Cluster Data Service for MaxDB は、SPARC および x86 ベースのシステム上の非大域ゾーンをサポートしています。このサポートのために、Sun Cluster Data Service for MaxDB ガイドに対して次の変更を加える必要があります。次の手順は、大域ゾーンで実行するように構成されたクラスタ上で実行できます。非大域ゾーンで実行するようにクラスタをインストールする場合は、後述のように不要になる手順もあります。
各ゾーン上で、ネームサービス検索による失敗を回避するため、 /etc/hosts ファイル内にすべてのネットワークリソースが存在することを確認します。
各ゾーンで、/etc/group ファイルに MaxDB グループのエントリを作成し、予定するユーザーをこのグループに追加します。
各ゾーンで、MaxDB ユーザー ID のエントリを作成します。
次のコマンドを使用して、/etc/passwd と /etc/shadow ファイルにユーザー ID のエントリを作成します。
# useradd -u uid -g group -d /sap-home maxdb user |
MaxDB が実行可能なゾーン内に、マウントポイントディレクトリを作成します。
切り替えまたはフェイルオーバーの発生時に Sun Cluster HA for MaxDB が正しく起動したり停止したりするように、/etc/nsswitch.conf を構成します。
各ゾーン上で、大域ゾーン /etc/services から取得したすべての必要な MaxDB ポートを使用して、/etc/services ファイルを更新します。この手順は、非大域ゾーンにインストールされる MaxDB には不要です。
大域ゾーンからすべてのローカルゾーンノードに、/etc/opt/sdb をコピーします。この手順は、非大域ゾーンにインストールされる MaxDB には不要です。
大域ゾーンからすべてのローカルゾーンノードに、/var/spool/sql をコピーします。この手順は、非大域ゾーンにインストールされる MaxDB には不要です。
x86 ベースシステムの場合に限り、MaxDB を実行する予定のすべてのローカルゾーン上で crle -64 -u -l /sapmnt/MaxDBSystemName/exe を実行します。
この節では、『Sun Cluster Data Service for SAP Guide for Solaris OS 』内の記述の誤りと記載漏れについて説明します。
Sun Cluster Data Service for SAP は、SPARC および x86 ベースシステム上の非大域ゾーンをサポートしています。このサポートのために、Sun Cluster Data Service for SAP ガイドに対して次の変更を加える必要があります。次の手順を実行できるのは、大域ゾーンで実行するように構成されたクラスタ上においてです。非大域ゾーンで実行するようにクラスタをインストールする場合は、後述されているように、不要になる手順もあります。
各ゾーン上で、ネームサービス検索による失敗を回避するため、 /etc/hosts ファイル内にすべてのネットワークリソースが存在することを確認します。
各ゾーンで、/etc/group ファイルに SAP グループのエントリを作成し、予定するユーザーをこのグループに追加します。
各ゾーンで、SAP ユーザー ID のエントリを作成します。
次のコマンドを使用して、/etc/passwd と /etc/shadow ファイルにユーザー ID のエントリを作成します。
# useradd -u uid -g group -d /sap-home sap user |
SAP が実行可能なゾーン内に、マウントポイントディレクトリを作成します。
切り替えまたはフェイルオーバーの発生時に Sun Cluster HA for SAP が正しく起動したり停止したりするように、/etc/nsswitch.conf を構成します。
各ゾーン上で、大域ゾーン /etc/services から取得したすべての必要な SAP ポートを使用して、/etc/services ファイルを更新します。この手順は、非大域ゾーンにインストールされる SAP には不要になります。
x86 ベースシステムの場合に限り、SAP を実行する予定のすべてのローカルゾーン上で crle -64 -u -l /sapmnt/SAPSystemName/exe を実行します。
この節では、『Sun Cluster Data Service for SAP liveCache Guide for Solaris OS 』内の記述の誤りと記載漏れについて説明します。
Sun Cluster Data Service for SAP liveCache は、SPARC および x86 ベースシステム上の非大域ゾーンをサポートしています。このサポートのために、Sun Cluster Data Service SAP liveCache ガイドに対して次の変更を加える必要があります。次の手順を実行できるのは、大域ゾーンで実行するように構成されたクラスタ上においてです。非大域ゾーンで実行するようにクラスタをインストールする場合は、後述されているように、不要になる手順もあります。
各ゾーン上で、ネームサービス検索による失敗を回避するため、 /etc/hosts ファイル内にすべてのネットワークリソースが存在することを確認します。
各ゾーンで、/etc/group ファイルに SAP liveCache グループのエントリを作成し、予定するユーザーをこのグループに追加します。
各ゾーンで、SAP liveCache ユーザー ID のエントリを作成します。
次のコマンドを使用して、/etc/passwd と /etc/shadow ファイルにユーザー ID のエントリを作成します。
# useradd -u uid -g group -d /sap-home sap user |
SAP liveCache が実行可能なゾーン内に、マウントポイントディレクトリを作成します。
切り替えまたはフェイルオーバーの発生時に Sun Cluster HA for SAP liveCache が正しく起動したり停止したりするように、/etc/nsswitch.conf を構成します。
各ゾーン上で、大域ゾーン /etc/services から取得したすべての必要な SAP liveCache ポートを使用して、/etc/services ファイルを更新します。この手順は、非大域ゾーンにインストールされる SAP liveCache には不要になります。
大域ゾーンからすべてのローカルゾーンノードに、/etc/opt/sdb をコピーします。この手順は、非大域ゾーンにインストールされる SAP liveCache には不要になります。
大域ゾーンからすべてのローカルゾーンノードに、/var/spool/sql をコピーします。この手順は、非大域ゾーンにインストールされる SAP liveCache には不要になります。
x86 ベースシステムの場合に限り、SAP liveCache を実行する予定のすべてのローカルゾーン上で crle -64 -u -l /sapmnt/SAPSystemName/exe を実行します。
この節では、『Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS』内の記述の誤りと記載漏れについて説明します。
SAP 7.0 および NW2004SR1 で SAP インスタンスが起動されると、sapstartsrv プロセスがデフォルトで起動されます。sapstartsrv プロセスは、Sun Cluster HA for SAP Web Application Server によって制御されません。このため、Sun Cluster HA for SAP Web Application Server による SAP インスタントの停止またはフェイルオーバー時に、sapstartsrv プロセスは停止しません。
Sun Cluster HA for SAP Web Application による SAP インスタンスの起動時に、sapstartsrv プロセスが起動されることを回避するには、startsap スクリプトを変更します。さらに、すべての Sun Cluster ノードで /etc/rc3.d/S90sapinit のファイル名を /etc/rc3.d/xxS90sapinit に変更します。
Sun Cluster Data Service for SAP Web Application Server は、SPARC および x86 ベースシステム上の非大域ゾーンをサポートしています。このサポートのために、Sun Cluster Data Service SAP Web Application Server ガイドに対して次の変更を加える必要があります。次の手順を実行できるのは、大域ゾーンで実行するように構成されたクラスタ上においてです。非大域ゾーンで実行するようにクラスタをインストールする場合は、後述されているように、不要になる手順もあります。
各ゾーン上で、ネームサービス検索による失敗を回避するため、/etc/hosts ファイル内にすべてのネットワークリソースが存在することを確認します。
各ゾーンで、/etc/group ファイルに SAP Web Application Server グループのエントリを作成し、予定するユーザーをこのグループに追加します。
各ゾーンで、SAP Web Application Server ユーザー ID のエントリを作成します。
次のコマンドを使用して、/etc/passwd と /etc/shadow ファイルにユーザー ID のエントリを作成します。
# useradd -u uid -g group -d /sap-home sap user |
SAP Web Application Server が実行可能なゾーン内に、マウントポイントディレクトリを作成します。
切り替えまたはフェイルオーバーの発生時に Sun Cluster HA for SAP が正しく起動したり停止したりするように、/etc/nsswitch.conf を構成します。
各ゾーン上で、大域ゾーン /etc/services から取得したすべての必要な SAP ポートを使用して、/etc/services ファイルを更新します。この手順は、非大域ゾーンにインストールされる SAP Web Application Server には不要になります。
x86 ベースシステムの場合に限り、SAP を実行する予定のすべてのローカルゾーン上で crle -64 -u -l /sapmnt/SAPSystemName/exe を実行します。
非大域ゾーン用に HAStoragePlus リソースを構成するには、次の手順に従います。
クラスタファイルシステム用の /etc/vfstab ファイルのエントリには、マウントオプションに global キーワードが含まれているべきです。
HAStoragePlus リソースを使用することで高可用性を実現する予定の SAP バイナリは、非大域ゾーンからアクセス可能であるべきです。
非大域ゾーンで、さまざまなリソースグループ内のさまざまなリソースによって使用されるファイルシステムは、スケーラブルなリソースグループ内に存在する単一の HAStoragePlus リソース内に存在するようにします。スケーラブルな HAStoragePlus リソースグループのノードリストは、ファイルシステムに依存するリソースを持つアプリケーションリソースグループのノードリストのスーパーセットである必要があります。ファイルシステムに依存するこれらのアプリケーションリソースには、HAStoragePlus リソースへの強い依存関係を設定する必要があります。また、依存元のアプリケーションリソースグループには、スケーラブルな HAStoragePlus リソースグループに対する、強く肯定的なリソースグループアフィニティーを設定する必要もあります。
クラスタ内の任意のノードで、スーパーユーザーになるか、solaris.cluster.modify RBAC の承認を提供する役割になります。
HAStoragePlus リソースを含む非大域ゾーンで、スケーラブルリソースグループを作成します。
# clresourcegroup create \ -p Maximum_primaries=m\ -p Desired_primaries=n\ [-n node-zone-list] hasp-resource-group |
リソースグループのアクティブな主ノードの最大数を指定します。
リソースグループが起動するアクティブな主ノードの数を指定します。
HAStoragePlus リソースグループのノードリストに、nodename:zonename ペアのリストを、HAStoragePlus リソースグループのノードリストとして指定します。この指定により、SAP インスタンスがオンラインになります。
追加するスケーラブルリソースグループの名前を指定します。任意の名前の先頭文字は ASCII にする必要があります。
HAStoragePlus リソースのリソースタイプを登録します。
# clresourcetype register HAStoragePlus |
HAStoragePlus のリソース hasp-resource を作成し、SAP ファイルシステムのマウントポイントと広域デバイスパスを定義します。
# clresource create -g hasp-resource-group -t SUNW.HAStoragePlus \ -p GlobalDevicePaths=/dev/global/dsk/d5s2,dsk/d6 \ -p affinityon=false -p FilesystemMountPoints=/sapmnt/JSC,/usr/sap/trans,/usr/sap/JSC hasp-resource |
リソースグループの名前を指定します。
次の値が含まれます。
広域デバイスグループ名 (例: sap-dg, dsk/d5 )
広域デバイスへのパス (例: /dev/global/dsk/d5s2、/dev/md/sap-dg/dsk/d6)
次の値が含まれます。
ローカルまたはクラスタファイルシステムのマウントポイント。たとえば、/local/mirrlogA,/local/mirrlogB,/sapmnt/JSC,/usr/sap/JSC など。
HAStoragePlus リソースが、有効な状態で作成されます。
SAP アプリケーションのリソースタイプを登録します。
# clresourcetype register resource-type |
追加するリソースタイプの名前を指定します。詳細は、「サポートされる製品」を参照してください。
SAP リソースグループの作成
# clresourcegroup create [-n node-zone-list] -p RG_affinities=++hastorageplus-rg resource-group-1 |
SAP サービスリソースグループを指定します。
SAP アプリケーションリソースを resource-group-1 に追加し、hastorageplus-1 に対する依存関係を設定します。
# clresource create -g resource-group-1 -t SUNW.application \ [-p "extension-property[{node-specifier}]"=value, ?] \ -p Resource_dependencies=hastorageplus-1 resource |
フェイルオーバーリソースグループをオンラインにします。
# clresourcegroup online resource-group-1 |
この節では、『Sun Cluster のシステム管理 (Solaris OS 版)』内の記述の誤りと記載漏れについて説明します。
テストの目的で、アプリケーションをクラスタ外で実行するには、次の手順に従います。
定足数デバイスが Solaris Volume Manager メタセットで使用されるかどうかを判定し、定足数デバイスが scsi2 または scsi3 予約を使用するかどうかを判別します。
# clquorum show |
定足数デバイスが Solaris Volume Manager メタセット内にある場合、あとで非クラスタモードで取得されるメタセットの一部ではない定足数デバイスを新しく追加します。
# clquorum add did |
古い定足数デバイスを削除します。
# clqorum remove did |
定足数デバイスが scsi2 予約を使用する場合、scsi2 予約を古い定足数から消し込み、scsi2 予約が残っていないことを確認します。
# /usr/cluster/lib/sc/pgre -c pgre_scrub -d /dev/did/rdsk/dids2 # /usr/cluster/lib/sc/pgre -c pgre_inkeys -d /dev/did/rdsk/dids2 |
非クラスタモードで起動するノードを退避します。
# clresourcegroup evacuate -n targetnode |
HAStorage または HAStoragePlus リソースを含み、また、あとで非クラスタモードで取得するメタセットの影響を受けるデバイスやファイルシステムを含むリソースグループをすべてオフラインにします。
# clresourcegroup offline resourcegroupname |
オフラインにしたリソースグループ内のすべてのリソースを無効にします。
# clresource disable resourcename |
リソースグループを非管理状態に切り替えます。
# clresourcegroup unmanage resourcegroupname |
対応するデバイスグループをオフラインにします。
# cldevicegroup offline devicegroupname |
デバイスグループを無効にします。
# cldevicegroup disable devicegroupname |
パッシブノードを非クラスタモードで起動します。
# reboot -x |
次に進む前に、パッシブノードで起動プロセスが完了したことを確認します。
Solaris 9
ログインプロンプトが表示されることが起動プロセスの完了を意味しているので、アクションは不要です。
Solaris 10
# svcs -x |
メタセット内のディスクに scsi3 予約があるかどうかを判別します。メタセット内のすべてのディスクで次のコマンドを実行します。
# /usr/cluster/lib/sc/scsi -c inkeys -d /dev/did/rdsk/dids2 |
scsi3 予約がある場合は、消します。
# /usr/cluster/lib/sc/scsi -c scrub -d /dev/did/rdsk/dids2 |
退避したノード上のメタセットを取得します。
# metaset -s name -C take -f |
メタセット上で定義されたデバイスを含むファイルシステムをマウントします。
# mount device mountpoint |
アプリケーションを起動し、必要なテストを実行します。テスト終了後、アプリケーションを停止します。
ノードを再起動し、起動プロセスが完了するまで待機します。
# reboot |
デバイスグループをオンラインにします。
# cldevicegroup online -e devicegroupname |
リソースグループを起動します。
# clresourcegroup online -eM resourcegroupname |
Sun Cluster は Solaris IP フィルタリングをサポートしますが、次の制限があります。
フェイルオーバーデータサービスのみがサポートされます。
Sun Cluster は、スケーラブルデータサービスと一緒には IP フィルタリングをサポートしません。
ステートレスフィルタリングのみがサポートされます。
NAT ルーティングはサポートされません。
ローカルアドレスの変換のための NAT の使用はサポートされます。NAT 変換は、パケットを無線で書き換えるため、クラスタソフトウェアからは見えません。
/etc/iu.ap ファイル内で、clhbsndr pfil をモジュールリストにリストするようにパブリック NIC エントリを変更します。
pfil は、リストの最後のモジュールである必要があります。
プライベートおよびパブリックネットワークに対して同じタイプのアダプタを使用している場合、/etc/iu.ap ファイルへの編集は、pfil をプライベートネットワークストリームにプッシュします。ただし、ストリーム生成時に、クラスタトランスポートモジュールは望ましくないモジュールをすべて自動的に削除するため、pfil はプライベートネットワークストリームから削除されます。
IP フィルタが非クラスタモードで確実に機能するようにするには、/etc/ipf/pfil.ap ファイルを更新します。
/etc/iu.ap ファイルに対する更新は、多少異なります。詳細は、IP フィルタのマニュアルを参照してください。
影響を受けるすべてのノードを再起動します。
ノードを順次、起動できます。
影響を受けるすべてのノード上の /etc/ipf/ipf.conf ファイルに、フィルタルールを追加します。IP フィルタルールについては、ipf(4) を参照してください。
Sun Cluster ノードにフィルタルールを追加する際は、次のガイドラインと要件に留意してください。
Sun Cluster は、ネットワークアドレスをノードからノードへフェイルオーバーします。フェイルオーバー時に特別な手順やコードは必要ありません。
論理ホストネームの IP アドレスと共有アドレスリソースを参照するすべてのフィルタリングルールは、すべてのクラスタノード上で同一である必要があります。
予備ノードに関するルールは、存在しない IP アドレスを参照します。このルールは、依然として IP フィルタの有効なルールセットの一部であり、フェイルオーバー後にノードがアドレスを受け取ると有効になります。
すべてのフィルタリングルールは、同じ IPMP グループ内のすべての NIC で同一である必要があります。言い換えると、ルールがインタフェース特有の場合、同じ IPMP グループ内のすべてのほかのインタフェースにも同じルールが存在する必要があります。
ipfilter SMF サービスを有効にします。
# svcadm enable /network/ipfilter:default |
この節では、『Sun Cluster データサービス開発ガイド (Solaris OS 版)』 内の記述の誤りと記載漏れについて説明します。
『Sun Cluster データサービス開発ガイド (Solaris OS 版)』の「リソースタイププロパティー」 で、Failover リソースプロパティーの説明に非大域ゾーンでのスケーラブルサービスのサポートに関する記述が抜けています。このサポートは、リソースタイプの Failover プロパティーが FALSE に設定され、リソースの Scalable プロパティーが TRUE に設定されているリソースに適用されます。このプロパティー設定の組み合わせは、SharedAddress リソースを使用するスケーラブルサービスがネットワークの負荷分散を実行することを示しています。Sun Cluster 3.2 リリースでは、非大域ゾーンで動作するリソースグループでこのタイプのスケーラブルサービスを構成できます。ただし、スケーラブルサービスを同じノードの複数の非大域ゾーンで実行するように構成することはできません。
Sun Cluster 3.2 リリースにおけるメソッドのタイムアウト動作の変更についての説明がありません。RGM メソッドのコールバックがタイムアウトすると、プロセスは SIGTERM シグナルではなく、SIGABRT シグナルを使用して停止されます。これにより、プロセスグループのすべてのメンバーがコアファイルを生成します。
新しいプロセスグループを作成するデータサービスメソッドを書かないでください。データサービスメソッドで新しいプロセスグループを作成する必要がある場合は、SIGTERM および SIGABRT シグナルのシグナルハンドラも書きます。シグナルハンドラが親プロセスを終了する前に、SIGTERM または SIGABRT シグナルを子プロセスグループに転送するシグナルハンドラを書きます。これにより、メソッドにより生じたすべてのプロセスが正しく終了する可能性が高くなります。
『Sun Cluster データサービス開発ガイド (Solaris OS 版)』の第 12 章「クラスタ再構成通知プロトコル」 に、Solaris 10 OS では CNRP (Cluster Reconfiguration Notification Protocol) が大域ゾーンでのみ動作するという説明が抜けています。
『Sun Cluster データサービス開発ガイド (Solaris OS 版)』の「データサービス作成用開発環境の設定」には、Solaris ソフトウェアグループの Developer または Entire Distribution が必要であるという注釈があります。この説明は、開発マシンに該当します。しかし、説明がクラスタ上でのデータサービスのテストについての説明のあとにあるため、データサービスが実行されているクラスタの必要条件であるかのように誤解される可能性があります。
この節では、『Sun Cluster 定足数サーバーユーザーズガイド』内の記述の誤りと記載漏れについて説明します。
次のインストールの必要条件およびガイドラインが抜けているかまたは不明確です。
Sun Cluster 用の Solaris ソフトウェアの必要条件は、定足数サーバーソフトウェアにも適用されます。
定足数サーバーでサポートされているハードウェアプラットフォームは、クラスタノードと同じです。
定足数サーバーは、定足数を提供する 1 つまたは複数のクラスタと同じハードウェアおよびソフトウェアプラットフォームで構成する必要はありません。たとえば、Solaris 9 OS を実行する x86 マシンは、Solaris 10 OS を実行する SPARC クラスタの定足数サーバーとして構成できます。
定足数サーバーをクラスタノードで構成して、ノードが属するクラスタ以外のクラスタに定足数を提供できます。ただし、クラスタノードで構成される定足数サーバーは高可用性ではありません。
この節では、Sun Cluster のマニュアルページの誤り、記載漏れ、および追加について説明します
ccp(1M) マニュアルページの次の更新された概要の節と追加されたオプションの節は、Cluster Control Panel (CCP) ユーティリティーでセキュアシェルがサポートされるようになったことについて説明しています。
形式
$CLUSTER_HOME/bin/ccp [-s] [-l username] [-p ssh-port] {clustername | nodename} |
オプション
次のオプションを指定できます。
ssh 接続のためのユーザー名を指定します。このオプションは、ユーティリティーが CCP から起動される際、cconsole、crlogin、または cssh ユーティリティーに渡されます。ctelnet ユーティリティーは、このオプションを無視します。
-l オプションが指定されていない場合、CCP を起動したユーザー名が有効になります。
使用するセキュアシェルポート番号を指定します。このオプションは、 ユーティリティーが CCP から起動される際、cssh ユーティリティーに渡されます。cconsole、crlogin、および ctelnet ユーティリティーは、このオプションを無視します。
-p オプションが指定されていない場合、安全な接続のためデフォルトのポート番号 22 が使用されます。
telnet 接続の代わりに、ノードコンソールへのセキュアシェル接続を使うことを指定します。このオプションは、ユーティリティーが CCP から起動される際、cconsole ユーティリティーに渡されます。crlogin、cssh、および ctelnet ユーティリティーは、このオプションを無視します。
-s オプションが指定されていない場合、cconsole ユーティリティーは、コンソールに telnet で接続します。
-s オプションを上書きするには、cconsole グラフィカルユーザーインタフェース (GUI) で「オプション」メニューの「SSH の使用」チェックボックスを選択解除します。
cconsole、crlogin、cssh、および ctelnet を組み合わせたマニュアルページの、次の更新された「形式」の節と追加された「オプション」の節は、Cluster Control Panel ユーティリティーでセキュアシェルがサポートされるようになったことについて記述しています。
形式
$CLUSTER_HOME/bin/cconsole [-s] [-l username] [clustername… | nodename…] $CLUSTER_HOME/bin/crlogin [-l username] [clustername… | nodename…] $CLUSTER_HOME/bin/cssh [-l username] [-p ssh-port] [clustername… | nodename…] $CLUSTER_HOME/bin/ctelnet [clustername… | nodename…] |
説明
このユーティリティーは、セキュアシェルによりクラスタノードに直接接続を確立します。
オプション
リモート接続のための ssh ユーザー名を指定します。このオプションは、cconsole、crlogin、および cssh コマンドで有効です。
あとで指定されるクラスタとノードが、接続時に同じユーザー名を使用するように、この引数の値は記憶されます。
-l オプションが指定されていない場合、コマンドを起動したユーザー名が有効になります。
使用するセキュアシェルポート番号を指定します。このオプションは、cssh コマンドで有効です。
-p オプションが指定されていない場合、安全な接続のためデフォルトのポート番号 22 が使用されます。
ノードコンソールに接続するために、 telnet の代わりにセキュアシェルを使用することを指定します。このオプションは、cconsole コマンドで有効です。
-s オプションが指定されていない場合、ユーティリティーはコンソールに telnet で接続します。
cconsole グラフィカルユーザーインタフェース (GUI) から -s オプションを上書きするには、「オプション」メニューの「SSH の使用」チェックボックスを選択解除します。
removeサブコマンドの説明は、特定の条件がある場合、コマンドが機能しないことを意味します。コマンドはこれらの条件で実行されますが、その結果、クラスタに悪影響を及ぼす可能性があります。remove サブコマンドの必要条件と動作のより正確な説明は次のとおりです。
クラスタからノードを削除するには、次のガイドラインに従います。これらのガイドラインを守らないと、ノードの削除により、クラスタ内の定足数が損なわれる可能性があります。
-f オプションを指定していない限り、定足数デバイスから削除するノードを構成解除します。
削除するノードが有効なクラスタメンバーでないことを確認します。
3 ノードクラスタに関しては、少なくとも 1 つの共有定足数デバイスが構成されていない限り、ノードを削除しないでください。
clnode remove コマンドは、クラスタ構成データベースからノードへの参照のサブセットを削除しようとします。-f オプションも指定されている場合、このサブコマンドはノードへのすべての参照を削除しようとします。
clnode remove コマンドを使用してクラスタからノードを削除する前に、ノードがクラスタ認証リストにない場合は、まず claccess add コマンドを使用して、ノードをクラスタ認証リストに追加してください。claccess list または claccess show コマンドを使用して、現在のクラスタ認証リストを表示します。そのあとで、セキュリティーのために、claccess deny-all コマンドを使用して、クラスタノードによるクラスタ構成のアクセスを防ぎます。詳細は、claccess(1CL) のマニュアルページを参照してください。
clresource(1CL) のマニュアルページに次のオプションが抜けています。
+ オペランドを指定する場合に、コマンドがリソースグループが一時停止しているリソースで動作するように指定します。+ オペランドを指定するときに u オプションを指定しない場合、コマンドはリソースグループが停止しているすべてのリソースを無視します。
-u オプションが有効なのは、+ オペランドが clear、disable、enable、monitor、set、および unmonitor サブコマンドに指定されている場合です。
+ オペランドの説明は、clear、disable、enable、monitor、set、または unmonitor サブコマンドと使用するときに、-u オプションも指定しない限り、リソースグループが停止しているすべてのリソースを無視する記述になるべきです。
-p、-x、および -y オプションの + および - オペランドの定義に挙げられている例は誤りです。この定義は次のようになるはずです。
1 つまたは複数の値を文字列配列値に追加します。この演算子は、set サブコマンドでのみ使用できます。この演算子は、たとえば Resource_dependencies のような、文字列値のリストを受け付けるプロパティーに対してのみ指定できます。
1 つまたは複数の値を文字列配列値から削除します。この演算子は、set サブコマンドでのみ使用できます。この演算子は、たとえば Resource_dependencies のような、文字列値のリストを受け付けるプロパティーに対してのみ指定できます。
evacuate サブコマンドのコマンド構文と説明に同じコマンド呼び出し内で 1 つを超えるノードまたはゾーンを退避できるという誤った説明があります。そうではなく、evacuate コマンドで指定できるのは、1 つのノードまたはゾーンだけです。
clresourcegroup(1CL) のマニュアルページに次のオプションが抜けています。
+ オペランドを指定する場合に、コマンドが停止したリソースグループで動作するように指定します。+ オペランドを指定するときに u オプションも指定しない場合、コマンドは停止したリソースグループをすべて無視します。
-u オプションが有効なのは、+ オペランドが add-node、manage、offline、online、quiesce、remaster、remove-node、 restart、set、switch、および unmanage サブコマンドに指定されている場合だけです。
+ オペランドの説明は、add-node、manage、offline、online、quiesce、remaster、remove-node、restart、set、switch、または unmanage サブコマンドと一緒に使用すると、このコマンドは、-u オプションも指定しない限り、停止したリソースグループをすべて無視する記述になるはずです。
Network_resources_used プロパティーの使い方が Sun Cluster 3.2 リリースで変わりました。このプロパティーに値を割り当てない場合、値はリソース依存性プロパティーの設定に基づいて、RGM によって自動的に更新されます。このプロパティーを直接設定する必要はありません。代わりに、Resource_dependencies、Resource_dependencies_offline_restart、Resource_dependencies_restart、または Resource_dependencies_weak プロパティーを設定します。
旧リリースの Sun Cluster ソフトウェアとの互換性を維持するために、Network_resources_used プロパティーの値を直接設定することもできます。この値を設定すると、Network_resources_used プロパティーはリソース依存性プロパティーから取得されなくなります。
Network_resources_used プロパティーにリソース名を追加すると、このリソース名は Resource_dependencies プロパティーにも自動的に追加されます。この依存性を削除する唯一の方法は、Network_resources_used プロパティーから削除することです。ネットワークリソースの依存性がもともと Resource_dependencies プロパティーに追加されていたか、Network_resources_used プロパティーに追加されていたかがよくわからない場合は、両方のプロパティーから依存性を削除します。たとえば、次のコマンドは依存性が Network_resources_used プロパティーに追加されていたか、Resource_dependencies プロパティーに追加されていたかに関わらず、ネットワークリソース r2 のリソース r1 の依存性を削除します。
# clresource set -p Network_resources_used-=r2 -p Resource_dependencies-=r2 r1 |
r_properties(5) のマニュアルページに Resource_dependencies、Resource_dependencies_offline_restart、Resource_dependencies_restart、および Resource_dependencies_weak プロパティーの誤った説明があります。これらのプロパティーの正しい説明については、代わりに『Sun Cluster データサービス開発ガイド (Solaris OS 版)』の「リソースのプロパティー」を参照してください。
Scalable リソースプロパティーの説明に非大域ゾーンでのスケーラブルサービスのサポートに関する記述がありません。このサポートは、リソースタイプの Failover プロパティーが FALSE に設定され、リソースの Scalable プロパティーが TRUE に設定されているリソースに適用されます。このプロパティー設定の組み合わせは、SharedAddress リソースを使用するスケーラブルサービスがネットワークの負荷分散を実行することを示しています。Sun Cluster 3.2 リリースでは、非大域ゾーンで動作するリソースグループでこのタイプのスケーラブルサービスを構成できます。ただし、スケーラブルサービスを同じノードの複数の非大域ゾーンで実行するように構成することはできません。
Failover リソースタイプのプロパティーに Sun Cluster 3.2 リリースの非大域ゾーンでのスケーラブルサービスのサポートに関する誤った記述が含まれます。これは、リソースタイプの Failover プロパティーが FALSE に設定され、リソースの Scalable プロパティーが TRUE に設定されているリソースに適用されます。
(誤)このタイプのスケーラブルサービスはゾーン内では使用できません。
(正)このタイプのスケーラブルサービスは、非大域ゾーンで動作するリソースグループで構成できます。ただし、スケーラブルサービスを同じノードの複数の非大域ゾーンで実行するように構成することはできません。
次の情報は、serialport(4) のマニュアルページの「説明」の節への追加です。
ノードコンソールへのセキュアシェル接続をサポートするには、/etc/serialports ファイル内に、各ノードのコンソールアクセスデバイス名およびセキュアシェルポート番号を指定します。コンソールアクセスデバイスでデフォルトのセキュアシェル構成を使用する場合は、ポート番号 22 を指定します。
SUNW.Event(5) のマニュアルページに、Solaris 10 OS では、CRNP (Cluster Reconfiguration Notification Protocol) は大域ゾーンでのみ動作するという記述が抜けています。