Sun Cluster 3.0 のシステム管理

第 6 章 クラスタの管理

この章では、クラスタ全体に影響を与える項目の管理手順について説明します。

この章で説明する手順は次のとおりです。

クラスタ管理の概要

表 6-1 作業マップ : クラスタの管理

作業 

参照箇所 

クラスタの名前を変更します。 

「クラスタ名を変更する」

ノード ID およびそれらの対応するノード名の一覧を表示します。 

「クラスタ名を変更する」

クラスタへの新しいノードの追加を許可または拒否します。 

「新しいクラスタノード認証で作業する」

Network Time Protocol (NTP) を使用してクラスタの時刻を変更します。 

「クラスタの時刻をリセットする」

ノードを停止し、OpenBootTM PROM コマンドを入力します。

「ノードで OpenBoot PROM (OBP) コマンドを入力する」

クラスタ名を変更する

必要に応じて、初期インストール後にクラスタ名を変更できます。

  1. クラスタ内のノードでスーパーユーザーになります。

  2. scsetup(1M) ユーティリティを起動します。


    # scsetup 
    

    「Main Menu」が表示されます。

  3. クラスタ名を変更するには、6 (Other cluster properties) を入力します。

    「Other Cluster Properties」メニューが表示されます。

  4. メニューから選択を行って、画面の指示に従います。

例 - クラスタ名の変更

次に、新しいクラスタ名 dromedary に変更するために、scsetup ユーティリティから生成された scconf(1M) コマンドの例を示します。


# scconf -c -C cluster=dromedary 

ノード ID をノード名にマップする

Sun Cluster のインストール時に、各ノードには、自動的に一意のノード ID 番号が割り当てられます。このノード ID 番号は、最初にクラスタに加わったときの順番でノードに割り当てられます。一度割り当てられた番号は変更できません。ノード ID 番号は、通常、エラーメッセージが発生したクラスタノードを識別するために、エラーメッセージで使用されます。この手順を使用し、ノード ID とノード名間のマッピングを判別します。

構成情報の一覧を表示するために、スーパーユーザーになる必要はありません。

  1. scconf(1M) を使用し、クラスタ構成情報の一覧を表示します。


    % scconf -pv | grep "Node ID" 
    

例 - ノード名のノード ID へのマップ

次に、ノード ID の割り当て例を示します。


% scconf -pv | grep "Node ID"
	(phys-schost-1) Node ID:																				1
	(phys-schost-2) Node ID:																				2
	(phys-schost-3) Node ID:																				3

新しいクラスタノード認証で作業する

Sun Cluster を使用すると、新しいノードをクラスタに追加できるか、またどのような認証タイプかを判別できます。パブリックネットワーク上のクラスタに加わる新しいノードを許可したり、新しいノードがクラスタに加わることを拒否したり、クラスタに加わるノードを特定したりできます。新しいノードは、標準 UNIX または Diffie-Hellman (DES) 認証を使用し、認証することができます。DES 認証を使用して認証する場合、ノードが加わるには、すべての必要な暗号化鍵を構成する必要があります。詳細は、scsetup(1M) および publickey(4) のマニュアルページを参照してください。

  1. クラスタ内のノードでスーパーユーザーになります。

  2. scsetup(1M) ユーティリティを起動します。


    # scsetup 
    

    「Main Menu」が表示されます。

  3. クラスタ認証で作業するには、5 (New nodes) を入力します。

    「New Nodes」メニューが表示されます。

  4. メニューから選択を行って、画面の指示に従います。

例 - 新しいマシンがクラスタに追加されないようにする

次に、新しいマシンがクラスタに追加されないようにする、scsetup ユーティリティから生成された scconf(1M) コマンドの例を示します。


# scconf -a -T node=. 

例 - すべての新しいマシンがクラスタに追加されるように許可する

次に、すべての新しいマシンがクラスタに追加されるようにする、scsetup ユーティリティから生成された scconf(1M) コマンドの例を示します。


# scconf -r -T all 

例 - クラスタに追加される新しいマシンを指定する

次に、単一の新しいマシンがクラスタに追加されるようにする、scsetup ユーティリティから生成された scconf(1M) コマンドの例を示します。


# scconf -a -T node=phys-schost-4 

例 - 認証を標準 UNIX に設定する

次に、クラスタに加わる新しいノードの認証を標準 UNIX 認証にリセットする、scsetup ユーティリティから生成された scconf(1M) コマンドの例を示します。


# scconf -c -T authtype=unix 

例 - 認証を DES に設定する

次に、クラスタに加わる新しいノードで DES 認証を使用する、scsetup ユーティリティから生成された scconf(1M) コマンドの例を示します。


# scconf -c -T authtype=des 

注 -

DES 認証を使用する場合、クラスタにノードが加わるには、すべての必要な暗号化鍵を構成する必要があります。詳細は、scsetup(1M) および publickey(4) のマニュアルページを参照してください。


クラスタの時刻をリセットする

Sun Cluster は、Network Time Protocol (NTP) を使用し、クラスタノード間で時刻を同期させています。クラスタの時刻の調整は、ノードが時刻を同期するときに、必要に応じて自動的に行われます。詳細については、『Sun Cluster 3.0 の概念』および『Network Time Protocol User's Guide』を参照してください。


注意 - 注意 -

NTP を使用する場合、クラスタの稼動中はクラスタの時刻を調整しないでください。このような調整としては、date(1)、rdate(1M)、xntpdate(1M) などのコマンドを、対話的に、または cron(1M) スクリプト内で使用することも含まれます。


  1. クラスタ内のノードでスーパーユーザーになります。

  2. クラスタを停止します。


    # scshutdown -g0 -y 
    
  3. 各ノードを非クラスタノードで起動します。


    ok boot -x 
    
  4. 単一のノードで、date(1) コマンドを実行して時刻を設定します。


    # date HHMMSS 
    
  5. 他のマシンで、rdate(1M) コマンドを実行し、時刻をこのノードに同期化します。


    # rdate hostname 
    
  6. 各ノードを起動し、クラスタを再起動します。


    # reboot 
    
  7. すべてのクラスタノードで変更が行われたことを確認します。

    各ノードで、date(1M) コマンドを実行します。


    # date 
    

ノードで OpenBoot PROM (OBP) コマンドを入力する

OpenBoot PROM 設定を構成または変更する必要がある場合は、この手順を使用します。

  1. 端末集配信装置 (コンセントレータ) ポートに接続します。


    # telnet tc_name tc_port_number 
    
    tc_name

    端末集配信装置の名前を指定します。

    tc_port_number

    端末集配信装置のポート番号を指定します。ポート番号は構成に依存します。通常、ポート 2 (5002) と ポート 3 (5003) は、サイトで最初に設置されたクラスタで使用されています。

  2. scswitch(1M) コマンドを使用し、クラスタノードを正常に停止し、任意のリソースまたはディスクデバイスグループを退避します。次に、shutdown(1M) コマンドを使用し、ノードを OBP プロンプトの状態にします。


    # scswitch -S -h node
    # shutdown -g 0 -y 
    
  3. サーバーにブレークを送信します。


     telnet> send brk 
    
  4. OpenBoot PROM コマンドを実行します。

クラスタノードの追加

次の表に、ノードを既存のクラスタに追加するときに行う作業を示します。

表 6-2 作業マップ : ノードの追加

作業 

参照箇所 

クラスタインターコネクトへの新しいノードの追加 

- ホストアダプタの設置、トランスポート接続中継点の追加、インターコネクトの配線を行います。 

Sun Cluster 3.0 Hardware Guide

「Adding and Replacing Cluster Interconnect and Public Hardware」 

共有記憶装置の追加 

Sun Cluster 3.0 Hardware Guide

「Installing and Replacing the StorEdge MultiPack Enclosure」 

「Installing and Replacing the StorEdge D1000 Disk Array」 

「Installing and Replacing the StorEdge A5x00 Disk Array」 

認証ノードリストへのノードの追加 

- scsetup を使用します。

Sun Cluster 3.0 のシステム管理

「クラスタノードを追加する」 

新しいクラスタノードのソフトウェアのインストールおよび構成 

- Solaris オペレーティング環境および Sun Cluster ソフトウェアをインストールします。 

- クラスタの一部としてノードを構成します。 

Sun Cluster 3.0 ソフトウェアのインストール

「Sun Cluster ソフトウェアのインストールと構成」 

クラスタノードを認証ノードリストに追加する

「ノードの追加」作業マップに示されているように、既存のクラスタにマシンを追加する前に、プライベートクラスタインターコネクトとの物理的な接続が正確に行われているかなど、必要なソフトウェアとハードウェアがすべて正確にノードにインストールおよび構成されていることを確認してください。ソフトウェアインストールの詳細については、『Sun Cluster 3.0 ソフトウェアのインストール』および scinstall(1M) のマニュアルページを参照してください。ハードウェアの設置については、『Sun Cluster 3.0 Hardware Guide』または使用するサーバーに付属しているマニュアルを参照してください。

  1. 現在のクラスタメンバーノードでスーパーユーザーになります。

  2. scsetup ユーティリティを実行します。


    # scsetup 
    

    「Main Menu」が表示されます。

  3. 「Main Menu」で 5 を入力し、「New Nodes Menu」オプションにアクセスします。

  4. 「New Nodes Menu」で 3 (Specify the name of the machine) を入力し、認証リストを編集します。

  5. 追加できるマシンの名前を指定します。

    プロンプトに従い、クラスタノードを追加します。追加するノードの名前を入力します。

  6. ノードが認証リストに追加されていることを確認します。


     # scconf -p | grep "Cluster new node" 
    

例 - クラスタノードの追加

次に、phys-schost-3 というノードを既存のクラスタに追加する例を示します。


[スーパーユーザーになる] 
[scsetup ユーティリティを実行する] 
# scsetup 
*** Main Menu *** 
    Please select from one of the following options:
    ... Option:  5 
*** New Nodes Menu *** 
    Please select from one of the following options:
      ...
      3) Specify the name of a machine which may add itself       ...
   Option:  3 
>>> Specify a Machine which may Install itself into the Cluster <<< 
    ...
    Is it okay to continue (yes/no) [yes]? <Return> 
    Name of the host to add to the list of recognized machines?  phys-schost-3 
    Is it okay to proceed with the update (yes/no) [yes]? <Return> 
  
scconf -a -T node=phys-schost-3 
      Command completed successfully.
[scsetup の「New Nodes Menu」および「Main Menu」を終了する ] 
    ...
    Option:  q 
[ノードが追加されたことを確認する] 
# scconf -p | grep "Cluster new" 
Cluster new node authentication:      unix 
Cluster new node list:                phys-schost-3 

次の作業

Sun Cluster 3.0 ソフトウェアのインストール』の「Sun Cluster ソフトウェアのインストールと構成」

クラスタノードの削除

次の表に、ノードを既存のクラスタから削除するときに行う作業を示します。

表 6-3 作業マップ : クラスタノードの削除

作業 

参照箇所 

削除するノードを保守状態にします。 

- shutdownscconf を使用します。

Sun Cluster 3.0 データサービスのインストールと構成』、 第 9 章「データサービスリソースの管理」

「既存のリソースグループからノードを削除する」 

すべてのリソースグループからノードを削除します。 

- scrgadm を使用します。

Sun Cluster 3.0 のシステム管理』、 第 4 章「定足数の管理」

「クラスタノードを保守状態にする」 

ノードがメンバーになっているすべてのデバイスグループからノードを削除します。 

- ボリューム管理ソフトウェアのコマンドを使用します。 

Sun Cluster 3.0 のシステム管理』、第 3 章「広域デバイスとクラスタファイルシステムの管理」

「ディスクデバイスグループ (SDS) からノードを削除する」 

「ディスクデバイスグループ (VxVM) からノードを削除する」 

削除するノードへのすべての論理トランスポート接続を削除します。 

- scsetup を使用します。

Sun Cluster 3.0 のシステム管理』、 第 5 章「クラスタネットワークの管理」

「クラスタトランスポートケーブルとトランスポートアダプタを削除する」 

ノードから物理的にハードウェアを取り外すには、『Sun Cluster 3.0 Hardware Guide』の第 3 章「Installing and Maintaining Cluster Interconnect and Public Network Hardware」を参照してください。

削除するノードと共有しているすべての定足数デバイスを削除します。 

- scsetup を使用します。

Sun Cluster 3.0 のシステム管理』、 第 4 章「定足数の管理」

「定足数デバイスを削除する」 

クラスタソフトウェア構成からノードを削除します。 

- scconf を使用します。

Sun Cluster 3.0 のシステム管理』、

第 6 章「クラスタの管理」 

「クラスタノードを削除する」 

必要な共有記憶装置をノードおよびクラスタから削除します。 

- ボリューム管理ソフトウェアのマニュアルおよびハードウェアのマニュアル手順に従います。 

SDS または VxVM の管理ガイド、 

Sun Cluster 3.0 Hardware Guide』 :

「How to Remove a StorEdge MultiPack Enclosure」 

「How to Remove a StorEdge D1000 Disk」 

「How to Remove a StorEdge A5x00 Disk Array」 

クラスタソフトウェア構成からノードを削除する

ここで説明する手順は、ノードをクラスタから削除するプロセスで実行する必要のある最後のソフトウェア構成手順です。この手順を開始する前に、「クラスタノードの削除」作業マップに示されている必要な作業をすべて完了しておく必要があります。この手順を終了したら、『Sun Cluster 3.0 Hardware Guide』の説明に従ってハードウェアを切り離します。

  1. クラスタ内のノードでスーパーユーザーになります。


    注 -

    この手順を続行する前に、ノードを保守状態にしたうえで、そのノードがすべてのリソースグループ、デバイスグループ、定足数 (quorum) デバイス構成から削除してあることを確認してください。


  2. クラスタ内の起動ディスクを判別します。


    # scconf -pvv | grep Local_Disk	
    
  3. クラスタ内のどの起動ディスクが、削除するノードと接続されているかを確認します。


    # scdidadm -L did-name
    
  4. 各起動ディスクから localonly フラグを削除します。


     # scconf -c -D name=devicename,localonly=false 
    

  5. メンバーとなっているすべてのローディスクデバイスグループからノードを削除します。

    この手順は、各ディスクデバイスグループで行う必要があります。


    # scconf -pvv | grep nodename | grep Device	
    # scconf -r -D name=devicename,nodelist=nodename 
    
  6. クラスタからノードを削除します。


    # scconf -r -h node=nodename 
    
  7. scstat を使用し、ノードが削除されていることを確認します。


    # scstat -n 
    

注 -

クラスタからノードを削除した後でこのノードを稼動状態に戻すには、削除したノードに Solaris オペレーティング環境を再インストールする必要があります。


例 - クラスタノードの削除

次に、ノード (phys-schost-2) をクラスタから削除する例を示します。


[任意のノードでスーパーユーザーになる] 
[各ノードの起動ディスクを確認する] 
# scconf -pvv | grep Local_Disk 
	(dsk/d4) Device group type:          Local_Disk	(dsk/d3) Device group type:          Local_Disk 
# scdidadm -L
 ...
 4        phys-schost-2:/dev/rdsk/c1t3d0 /dev/did/rdsk/d4 
[localonly フラグを削除する :] 
# scconf -c -D name=dsk/d4,localonly=false
[すべての raw ディスクデバイスグループからノードを削除する] 
# scconf -pvv | grep phys-schost-2 | grep Device 
	(dsk/d4) Device group node list:  phys-schost-2 
	(dsk/d2) Device group node list:  phys-schost-1, phys-schost-2	(dsk/d1) Device group node list:  phys-schost-1, phys-schost-2 
# scconf -r -D name=dsk/d4,nodelist=phys-schost-2 
# scconf -r -D name=dsk/d2,nodelist=phys-schost-2 
# scconf -r -D name=dsk/d1,nodelist=phys-schost-2 
[クラスタからノードを削除する :] 
# scconf -r -h node=phys-schost-2 [削除されたことを確認する]
# scstat -n
-- Cluster Nodes --
                    Node name           Status
                    ---------           ------
  Cluster node:     phys-schost-1      Online

次の作業

以下を参照します。

Sun Cluster 3.0 Hardware Guide

 「How to Remove a StorEdge MultiPack Enclosure」

 「How to Remove a StorEdge D1000 Disk Array」

 「How to Remove a StorEdge A5x00 Disk Array」