Oracle® Solaris Cluster 4.3 システム管理

印刷ビューの終了

更新: 2016 年 7 月
 
 

ノードをブートする方法

phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。


注 -  Oracle Solaris Cluster Manager ブラウザインタフェースを使用して、ゾーンクラスタノードをブートすることもできます。Oracle Solaris Cluster Manager のログイン手順については、Oracle Solaris Cluster Manager にアクセスする方法を参照してください。

グローバルクラスタまたはゾーンクラスタの他のアクティブなノードを停止またはリブートする場合は、ブートするノードのマルチユーザーサーバーのマイルストーンがオンラインになるまで待ちます。ログインプロンプトが表示されてからでなければ、そのノードは、停止またはリブートするクラスタ内の他のノードからサービスを引き継げません。


注 -  ノードの起動は、定足数の構成によって変わる場合があります。2 ノードのクラスタでは、クラスタの定足数の合計数が 3 つになるように定足数デバイスを構成する必要があります(各ノードごとに 1 つと定足数デバイスに 1 つ)。この場合、最初のノードを停止しても、2 つ目のノードは定足数を保持しており、唯一のクラスタメンバーとして動作します。1 番目のノードをクラスタノードとしてクラスタに復帰させるには、2 番目のノードが稼動中で必要な数のクラスタ定足数(2 つ) が存在している必要があります。

Oracle Solaris Cluster をゲストドメインで実行している場合は、制御ドメインまたは I/O ドメインをリブートすると、ドメインが停止するなど、実行中のゲストドメインが影響を受ける場合があります。制御ドメインまたは I/O ドメインをリブートする前に、ほかのノードとの負荷のバランスを取り直し、Oracle Solaris Cluster を実行しているゲストドメインを停止するようにしてください。

制御ドメインまたは I/O ドメインがリブートされると、ハートビートはゲストドメインによって送受信されません。これにより、スプリットブレインとクラスタ再構成が発生します。制御ドメインまたは I/O ドメインはリブート中のため、ゲストドメインは共有デバイスにアクセスできません。その他のクラスタノードでは、このゲストドメインは共有デバイスから切り離されます。制御ドメインまたは I/O ドメインのリブートが終了すると、ゲストドメインで I/O が再開されますが、ゲストドメインはクラスタ再構成の一部として共有ディスクから切り離されているため、共有ストレージとの間の I/O により、ゲストドメインでパニックが発生します。冗長性のためにゲストが 2 つの I/O ドメインを使用している場合、I/O ドメインを 1 つずつリブートすると、この問題を解決できます。


注 -  クラスタメンバーシップを取得できるように、ノードにはクラスタインターコネクトとの動作中の接続が必要です。
  1. 停止したグローバルクラスタノードやゾーンクラスタノードを起動するために、そのノードを起動します。

    グローバルクラスタのノードから、次の手順のステップをすべて実行します。

    • SPARC ベースのシステム上で、次のコマンドを実行します。

      ok boot
    • x86 ベースのシステム上で、次のコマンドを実行します。

      GRUB メニューが表示された時点で、適切な Oracle Solaris エントリを選択し、Enter キーを押します。

      クラスタコンポーネントがブートすると、ブートされたノードのコンソールにメッセージが表示されます。

    • ゾーンクラスタがある場合は、ブートするノードを指定できます。

      phys-schost# clzonecluster boot -n node zone-cluster-name
  2. ノードが問題なくブートし、オンラインであることを確認します。
    • cluster status コマンドを実行すると、グローバルクラスタノードのステータスが報告されます。
      phys-schost# cluster status -t node
    • clzonecluster status コマンドをグローバルクラスタ上のノードから実行すると、すべてのゾーンクラスタノードのステータスが報告されます。
      phys-schost# clzonecluster status

      ホストのノードがクラスタモードでブートされる場合は、ゾーンクラスタノードもクラスタモードのみでブートできます。


      注 -  ノードの /var ファイルシステムが満杯になると、そのノード上では Oracle Solaris Cluster が再起動できなくなる可能性があります。この問題が発生した場合は、満杯の /var ファイルシステムを修復する方法を参照してください。
使用例 25  SPARC: グローバルクラスタノードのブート

次に、ノード phys-schost-1 をブートしてグローバルクラスタに結合させたときのコンソールの出力例を示します。

ok boot
Rebooting with command: boot
...
Hostname: phys-schost-1
Booting as part of a cluster
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
checking ufs filesystems
...
reservation program successfully exiting
Print services started.
volume management starting.
The system is ready.
phys-schost-1 console login:
使用例 26  x86: クラスタノードのブート

次に、ノード phys-schost-1 をブートしてクラスタに結合させたときのコンソールの出力例を示します。

                     <<< Current Boot Parameters >>>
Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/sd@0,0:a
Boot args:

Type    b [file-name] [boot-flags] <ENTER>   to boot with options
or      i <ENTER>                            to enter boot interpreter
or      <ENTER>                              to boot with defaults

<<< timeout in 5 seconds >>>

Select (b)oot or (i)nterpreter: Size: 276915 + 22156 + 150372 Bytes
/platform/i86pc/kernel/unix loaded - 0xac000 bytes used
SunOS Release 5.9 Version on81-feature-patch:08/30/2003 32-bit
Copyright 1983-2003 Sun Microsystems, Inc.  All rights reserved.
Use is subject to license terms.
configuring IPv4 interfaces: e1000g2.
Hostname: phys-schost-1
Booting as part of a cluster
NOTICE: CMM: Node phys-schost-1 (nodeid = 1) with votecount = 1 added.
NOTICE: CMM: Node phys-schost-2 (nodeid = 2) with votecount = 1 added.
NOTICE: CMM: Quorum device 1 (/dev/did/rdsk/d1s2) added; votecount = 1, bitmask
of nodes with configured paths = 0x3.
WARNING: CMM: Initialization for quorum device /dev/did/rdsk/d1s2 failed with
error EACCES. Will retry later.
NOTICE: clcomm: Adapter e1000g3 constructed
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 being constructed
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 being initiated
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 online
NOTICE: clcomm: Adapter e1000g0 constructed
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 being constructed
NOTICE: CMM: Node phys-schost-1: attempting to join cluster.
WARNING: CMM: Reading reservation keys from quorum device /dev/did/rdsk/d1s2
failed with error 2.
NOTICE: CMM: Cluster has reached quorum.
NOTICE: CMM: Node phys-schost-1 (nodeid = 1) is up; new incarnation number =
1068503958.
NOTICE: CMM: Node phys-schost-2 (nodeid = 2) is up; new incarnation number =
1068496374.
NOTICE: CMM: Cluster members: phys-schost-1 phys-schost-2.
NOTICE: CMM: node reconfiguration #3 completed.
NOTICE: CMM: Node phys-schost-1: joined cluster.
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 being initiated
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 online
NOTICE: CMM: Retry of initialization for quorum device /dev/did/rdsk/d1s2 was
successful.
WARNING: mod_installdrv: no major number for rsmrdt
ip: joining multicasts failed (18) on clprivnet0 - will use link layer
broadcasts for multicast
The system is coming up.  Please wait.
checking ufs filesystems
/dev/rdsk/c1t0d0s5: is clean.
NIS domain name is dev.eng.mycompany.com
starting rpc services: rpcbind keyserv ypbind done.
Setting netmask of e1000g2 to 192.168.255.0
Setting netmask of e1000g3 to 192.168.255.128
Setting netmask of e1000g0 to 192.168.255.128
Setting netmask of clprivnet0 to 192.168.255.0
Setting default IPv4 interface for multicast: add net 224.0/4: gateway phys-schost-1
syslog service starting.
obtaining access to all attached disks


*****************************************************************************
*
* The X-server can not be started on display :0...
*
*****************************************************************************
volume management starting.
Starting Fault Injection Server...
The system is ready.

phys-schost-1 console login: