2 Exadataデータベース・サーバーの保守
ノート:
読みやすさを考慮して、Oracle ExadataとOracle Exadata Storage拡張ラックの両方に言及する場合、「Oracle Exadataラック」という名前を使用します。- データベース・サーバー上の管理サーバー
- Exadataデータベース・サーバーのローカル記憶域の保守
ローカル・ドライブを修理する際には、Oracle Exadata Database Machineデータベース・サーバーを停止する必要はありません。 - Exadata Database Serverのフラッシュ・ディスクの保守
フラッシュ・ディスクは必ず監視して必要に応じて交換します。 - データベース・サーバーへのディスク拡張キットの追加
ディスク拡張キットを使用すると、Oracle Exadata Database Serverにローカル記憶領域を追加できます。 - データベース・サーバーへのメモリー拡張キットの追加
- X7以降のシステム用クライアント・ネットワーク・ポートのリンク速度の検証および変更
Oracle Exadata X7以降のデータベース・サーバーのクライアント・ネットワークで10 GbE接続または25 GbE接続を構成できます。 - Oracle Exadataでのネットワーク・カードの追加および構成
Oracle Exadata X6-2以降のシステムでは、追加のネットワーク・カードを追加できます。 - データベース・サーバーのアクティブ・コア数の増加
キャパシティ・オンデマンドを使用して、Oracle Exadataのアクティブ・コア数を増やすことができます。 - LVMパーティションの拡張
Logical Volume Manager (LVM)により、データベース・サーバー内のパーティションを再編成する柔軟性が提供されます。 - Oracle Linuxデータベース・サーバーのスナップショット・ベースのバックアップの作成
- スナップショット・ベースのバックアップを使用したOracle Linuxデータベース・サーバーのリカバリ
Oracle Linuxを実行するデータベース・サーバーのファイル・システムは、データベース・サーバーに重大な障害が発生した後またはサーバー・ハードウェアを新しいハードウェアに交換した後に、スナップショット・ベースのバックアップを使用してリカバリできます。 - Oracle Exadata Database Serverの再イメージ化
様々な理由によりデータベース・サーバーを初期状態にする必要がある場合は、再イメージ化の手順が必要になります。 - データベース・サーバーの既存のエラスティック構成の変更
エラスティック構成により、Oracle Exadataのサーバー構成に柔軟で効率的なメカニズムが提供されます。 - Quorumディスクの管理
- vmetricsの使用
vmetricsパッケージを使用すると、vmetricsサービスで収集されたシステム統計を表示できます。 - FIPSモードの使用
Oracle Linux 7以降を実行するデータベース・サーバーでは、カーネルのFIPSモードでの実行を有効化できます。 - Exadataデータベース・サーバーのLEDインジケータの説明
Oracle Exadataデータベース・サーバーのインジケータLEDは、システム・ステータスの確認と、保守が必要なコンポーネントの特定に役立ちます。 - Exadataデータベース・サーバーのイメージ
Exadataデータベース・サーバーのモデルには、様々な外部レイアウトおよび物理的外観があります。
2.1 データベース・サーバー上の管理サーバー
データベース・サーバー上で実行される管理サーバー(MS)は監視やアラートなどの管理機能を提供します。DBMCLIコマンドライン管理ツールも提供します。
関連項目:
-
Oracle Exadata Database Machineシステム概要ガイドのデータベース・サーバー上の管理サーバー
親トピック: Exadataデータベース・サーバーの保守
2.2 Exadataデータベース・サーバーのローカル・ストレージの保守
ローカル・ドライブを修理する際には、Oracle Exadata Database Machineデータベース・サーバーを停止する必要はありません。
ラックの停止時間は必要ありませんが、個別のサーバーを停止して一時的にクラスタから除外する時間が必要な場合があります。
- データベース・サーバー構成の検証
データベース・サーバーRAIDデバイスのステータスを確認して、パフォーマンスへの影響や停止を回避するようにしてください。 - データベース・サーバーRAIDセットの再構築の監視
- Oracle Exadata System Softwareリリース12.1.2.1.0以上へのアップグレード後のホット・スペア・ドライブのリクレイム
- 自動ファイル削除のポリシーについて
親トピック: Exadataデータベース・サーバーの保守
2.2.1 データベース・サーバー構成の検証
データベース・サーバーRAIDデバイスのステータスを確認して、パフォーマンスへの影響がないか、または停止しないようにすることをお薦めします。
RAIDデバイスの検証による影響は最小です。是正処置による影響は未対応の特定の問題によって異なり、単純な再構成から停止が必要になる場合があります。
- RAIDストレージ構成について
ローカル・ストレージ・ドライブはRAID構成で構成されます。 - RAIDコントローラがないシステムでのディスク・コントローラ構成の検証
- RAIDコントローラがあるシステムでのディスク・コントローラ構成の検証
- 仮想ドライブ構成の検証
- 物理ドライブ構成の検証
クリティカル・ディスク、機能が低下したディスクまたは障害が発生したディスクについてシステムを調査します。
2.2.1.1 RAIDストレージ構成について
ローカル・ストレージ・ドライブはRAID構成で構成されます。
表2-1 2ソケットのExadataシステムでのデータベース・サーバーのディスク構成
システム・モデル | RAIDコントローラ | ディスク構成 |
---|---|---|
Oracle Exadata X10M |
該当なし |
各データベース・サーバーの2つのミラー化(RAID-1) NVMeフラッシュ・ドライブ |
Oracle Exadata X9M-2 |
該当なし |
各データベース・サーバーの2つのミラー化(RAID-1) NVMeフラッシュ・ドライブ |
Oracle Exadata X8M-2 |
MegaRAID SAS 9361-16i |
データベース・サーバーごとのRAID-5構成の4つのディスク・ドライブ |
Oracle Exadata X8-2 |
MegaRAID SAS 9361-16i |
データベース・サーバーごとのRAID-5構成の4つのディスク・ドライブ |
Oracle Exadata X7-2 |
MegaRAID SAS 9361-16i |
データベース・サーバーごとのRAID-5構成の4つのディスク・ドライブ |
Oracle Exadata X6-2 |
MegaRAID SAS 9361-8i |
データベース・サーバーごとのRAID-5構成の4つのディスク・ドライブ |
Oracle Exadata X5-2 |
MegaRAID SAS 9361-8i |
データベース・サーバーごとのRAID-5構成の4つのディスク・ドライブ |
Oracle Exadata X4-2 |
MegaRAID SAS 9261-8i |
データベース・サーバーごとのRAID-5構成の4つのディスク・ドライブ |
Oracle Exadata X3-2 |
MegaRAID SAS 9261-8i |
データベース・サーバーごとのRAID-5構成の4つのディスク・ドライブ |
Oracle Exadata X2-2 |
MegaRAID SAS 9261-8i |
データベース・サーバーごとのRAID-5構成の4つのディスク・ドライブ |
表2-2 8ソケットのExadataシステムでのデータベース・サーバーのディスク構成
システム・モデル | RAIDコントローラ | ディスク構成 |
---|---|---|
Oracle Exadata X9M-8 |
該当なし |
各データベース・サーバーの2つのミラー化(RAID-1) NVMeフラッシュ・ドライブ |
Oracle Exadata X8M-8 |
該当なし |
各データベース・サーバーの2つのミラー化(RAID-1) NVMeフラッシュ・ドライブ |
Oracle Exadata X8-8 |
該当なし |
各データベース・サーバーの2つのミラー化(RAID-1) NVMeフラッシュ・ドライブ |
Oracle Exadata X7-8 |
該当なし |
各データベース・サーバーの2つのミラー化(RAID-1) NVMeフラッシュ・ドライブ |
Oracle Exadata X5-8 |
MegaRAID SAS 9361-8i |
データベース・サーバーごとの8つのディスク・ドライブと、RAID-5セット全体にわたって作成された1つの仮想ドライブ |
Oracle Exadata X4-8 |
MegaRAID SAS 9261-8i |
デフォルトで1つのグローバル・ホット・スペア・ドライブを搭載した1つの6ディスクRAID-5として構成された、データベース・サーバーごとに7つのディスク・ドライブ |
Oracle Exadata X3-8 |
MegaRAID SAS 9261-8i |
データベース・サーバーごとの8つのディスク・ドライブと、RAID-5セット全体にわたって作成された1つの仮想ドライブ |
親トピック: データベース・サーバー構成の検証
2.2.1.2 RAIDコントローラがないシステムでのディスク・コントローラ構成の検証
Oracle Exadata X9M-2以降、2ソケットExadataデータベース・サーバーにはRAIDコントローラがありません。8ソケット・システムの場合、Oracle Exadata X7-8以降のすべてのモデルにRAIDコントローラはありません。
出力が大幅に異なる場合は、問題点を調査して修正します。特に、仮想ドライブのパフォーマンス低下は、通常は物理ディスクの欠損または障害を示します。状態に対して[1/2]および[U_]または[_U]を示すディスクは、NVMEディスクのいずれかが停止していることを示します。障害が発生したディスクはすぐに交換してください。
親トピック: データベース・サーバー構成の検証
2.2.1.3 RAIDコントローラがあるシステムでのディスク・コントローラ構成の検証
Oracle Exadata X8M-2以前では、2ソケットExadataデータベース・サーバーにRAIDコントローラが含まれています。8ソケット・システムの場合、Oracle Exadata X6-8までのすべてのモデルにRAIDコントローラが含まれています。
2ソケット・システムの場合、予想される出力は、1つの仮想ドライブ(機能低下またはオフラインなし)、5つの物理デバイス(1つのコントローラと4つのディスク)、および4つのディスク(クリティカル・ディスクまたは障害のあるディスクなし)です。
8ソケット・システムの場合、予想される出力は1つの仮想ドライブ(機能低下またはオフラインなし)と8つのディスク(クリティカル・ディスクまたは障害のあるディスクなし)です。物理デバイスの数は、9 (1つのコントローラと8つのディスク)に、SAS2拡張ポート(該当する場合)の数を加えたものです。
出力が異なる場合は、問題点を調査して修正します。パフォーマンスが低下した仮想ドライブは、通常は存在しない物理ディスクまたは障害が発生したディスクです。ノードで障害が発生したディスクの数が、システムの動作を維持するのに必要な数を超えた場合は、データ損失のリスクを回避するために、クリティカル・ディスクをすぐに交換してください。障害が発生したディスクもすぐに交換してください。
ノート:
その他の仮想ドライブまたはホット・スペアが存在する場合は、デプロイ時にディスク再利用手順が実行されなかったか、dualboot=no
修飾子を使用せずにベア・メタル・リストア手順が実行された可能性があります。詳細および是正ステップは、Oracleサポート・サービスに問い合せてください。また、My Oracle Supportノート1323309.1を参照してください。
ホット・スペアがあるデータベース・サーバーをOracle Exadata System Softwareリリース11.2.3.2.0以上にアップグレードする場合、ホット・スペアは削除され、アクティブ・ドライブとしてRAID構成に追加されます。
例2-1 ディスク拡張キットのない2ソケット・システムのディスク・コントローラ構成の確認
次に、ディスク拡張キットのない2ソケット・システムで予想されるコマンド出力の例を示します。
Device Present
================
Virtual Drives : 1
Degraded : 0
Offline : 0
Physical Devices : 5
Disks : 4
Critical Disks : 0
Failed Disks : 0
親トピック: データベース・サーバー構成の検証
2.2.1.4 仮想ドライブ構成の検証
仮想ドライブの構成を検証するには、次のコマンドを使用して、仮想ドライブの構成を検証します。
ノート:
Oracle Exadata System Software 19.1.0以上を実行している場合は、次のコマンドで/opt/MegaRAID/MegaCli/MegaCli64
を/opt/MegaRAID/storcli/storcli64
に置き換えます。
/opt/MegaRAID/MegaCli/MegaCli64 CfgDsply -aALL | grep "Virtual Drive:"; \
/opt/MegaRAID/MegaCli/MegaCli64 CfgDsply -aALL | grep "Number Of Drives"; \
/opt/MegaRAID/MegaCli/MegaCli64 CfgDsply -aALL | grep "^State"
次に、Oracle Exadata Database Machine X4-2、Oracle Exadata Database Machine X3-2およびOracle Exadata Database Machine X2-2の場合の出力例を示します。仮想デバイス0は4つのドライブを持ち、状態はOptimal
です。
Virtual Drive : 0 (Target Id: 0)
Number Of Drives : 4
State : Optimal
Oracle Exadata Database Machine X3-8フル・ラックおよびOracle Exadata Database Machine X2-8フル・ラックの場合は、仮想デバイスが8つのドライブを持ち、状態がOptimalであることを示す出力が表示されると予想されます。
ノート:
データベース・サーバーでdualboot=no
オプションを使用しないでディスク交換がされた場合、データベース・サーバーには3つの仮想デバイスがある可能性があります。詳細および是正ステップは、Oracleサポートにお問合せください。また、My Oracle Supportノート1323309.1を参照してください。
親トピック: データベース・サーバー構成の検証
2.2.1.5 物理ドライブ構成の検証
クリティカル・ディスク、機能が低下したディスクまたは障害が発生したディスクについてシステムを調査します。
物理ドライブの構成を検証するには、次のコマンドを使用して、データベース・サーバーの物理ドライブの構成を検証します。
ノート:
Oracle Exadata System Software 19.1.0以上を実行している場合は、次のコマンドで/opt/MegaRAID/MegaCli/MegaCli64
を/opt/MegaRAID/storcli/storcli64
に置き換えます。
/opt/MegaRAID/MegaCli/MegaCli64 -PDList -aALL | grep "Firmware state"
次に、Oracle Exadata Database Machine X4-2、Oracle Exadata Database Machine X3-2およびOracle Exadata Database Machine X2-2の場合の出力例を示します。
Firmware state: Online, Spun Up
Firmware state: Online, Spun Up
Firmware state: Online, Spun Up
Firmware state: Online, Spun Up
ドライブの状態は、Online, Spun Up
と表示されている必要があります。出力順序は重要ではありません。Oracle Exadata Database Machine X3-8フル・ラックまたはOracle Exadata Database Machine X2-8フル・ラックの場合は、Online, Spun Up
の状態を示す出力が8行になります。
出力が異なる場合は、問題点を調査して修正します。
パフォーマンスが低下した仮想ドライブは、通常は存在しない物理ディスクまたは障害が発生したディスクです。ノードで障害が発生したディスクの数が、システムの動作を維持するのに必要な数を超えた場合は、データ損失のリスクを回避するために、クリティカル・ディスクをすぐに交換してください。障害が発生したディスクはすぐに交換してください。
親トピック: データベース・サーバー構成の検証
2.2.2 データベース・サーバーRAIDセットの再構築の監視
データベース・サーバーのRAIDセットのドライブを交換した場合は、RAIDセットの再構築の進捗状況を監視する必要があります。
ディスクを交換したデータベース・サーバーで次のコマンドを使用します。コマンドはroot
ユーザーとして実行します。
ノート:
Oracle Exadata System Software 19.1.0以上を実行している場合は、次のコマンドで/opt/MegaRAID/MegaCli/MegaCli64
を/opt/MegaRAID/storcli/storcli64
に置き換えます。
/opt/MegaRAID/MegaCli/MegaCli64 -pdrbld -showprog -physdrv \ [disk_enclosure:slot_number] -a0
前述のコマンドで、disk_enclosureおよびslot_numberは、MegaCli64 -PDList
コマンドによって識別された交換ディスクを示します。次に、コマンドの出力例を示します。
Rebuild Progress on Device at Enclosure 252, Slot 2 Completed 41% in 13 Minutes.
2.2.3 Oracle Exadata System Softwareリリース12.1.2.1.0以上へのアップグレード後のホット・スペア・ドライブのリクレイム
Oracle Exadata System Softwareリリース12.1.2.1.0以上にアップグレードしたホット・スペア・ドライブがあるOracle Exadata Database Machineは、reclaimdisks.sh
スクリプトを使用してドライブをリクレイムできません。手動でドライブをリクレイムする手順は、次のとおりです。
ノート:
この手順の実行中に、データベース・サーバーが2度再起動されます。手順のステップは、サーバーの再起動の後、Oracle Grid Infrastructureの再起動が無効であることを前提としています。
ディスクが4つあるOracle Exadata Database Machine X2-2データベース・サーバーの出力例を、次に示します。エンクロージャ識別子、スロット番号などは、使用するシステムにより異なる場合があります。
ノート:
Oracle Exadata System Software 19.1.0以上を実行している場合は、次のコマンドで/opt/MegaRAID/MegaCli/MegaCli64
を文字列/opt/MegaRAID/storcli/storcli64
に置き換えます。
2.2.4 自動ファイル削除のポリシーについて
管理サーバー(MS)には、データベース・サーバーの/
(root)ディレクトリに関するファイル削除ポリシーがあり、ファイル・システムの使用率が高い場合にトリガーされます。ファイルの削除はファイル使用率が80パーセントの場合にトリガーされ、削除開始前にアラートが送信されます。アラートには、ディレクトリの名前と、サブディレクトリの領域の使用率が含まれます。削除ポリシーは次のとおりです。
次に示すディレクトリ内のファイルは、ファイル変更のタイム・スタンプに基づいたポリシーを使用して削除されます。
/opt/oracle/dbserver/log
/opt/oracle/dbserver/dbms/deploy/config/metrics
/opt/oracle/dbserver/dbms/deploy/log
metricHistoryDays
属性によって設定された日数より古いファイルが最初に削除され、続けて古いファイルから変更タイムスタンプが10分以前のファイル、またはファイル・システムの使用率が75パーセントまでのファイルが削除されます。metricHistoryDays
属性は/opt/oracle/dbserver/dbms/deploy/config/metrics
内のファイルに適用されます。その他のログ・ファイルとトレース・ファイルには、diagHistoryDays
属性を使用します。
Oracle Exadata System Softwareリリース12.1.2.2.0以降では、ms-odl.trc
ファイルとms-odl.log
ファイルの領域の最大容量は、*.trc
ファイル用が100 MB (20個の5 MBファイル)、*.log
ファイル用が100 MB (20個の5 MBファイル)です。以前は、*.trc
ファイルと*.log
ファイルの両方とも、50 MB (10個の5 MBファイル)でした。
ms-odl
生成ファイルは5 MBに達すると名前が変更され、100 MBの領域を使い切ると、最も古いファイルが削除されます。
2.3 Exadata Database Serverのフラッシュ・ディスクの保守
フラッシュ・ディスクは必ず監視して必要に応じて交換します。
Exadata Database Machine X7-8以上のデータベース・サーバーでは、ハード・ディスクのかわりにフラッシュ・デバイスが使用されます。これらのフラッシュ・デバイスは、サーバーを停止しなくても交換できます。
- フラッシュ・ディスクのステータスの監視
Exadata Database Machineのフラッシュ・ディスクのステータスは、DBMCLILIST PHYSICALDISK
コマンドを使用して属性をチェックすることで監視できます。 - フラッシュ・ディスクのホットプラグ交換の実行
Oracle Exadata X7-8およびX8-8モデルのデータベース・サーバーでは、ハード・ディスク・ドライブのかわりにホットプラグ対応のフラッシュ・ディスクが使用されます。
親トピック: Exadataデータベース・サーバーの保守
2.3.1 フラッシュ・ディスクのステータスの監視
DBMCLI LIST PHYSICALDISK
コマンドを使用して属性をチェックすることによって、Exadata Database Machineのフラッシュ・ディスクのステータスを監視できます。
たとえば、障害
と同等のフラッシュ・ディスク・ステータスの問題が発生し、交換が必要である場合などです。
Exadata Database Serverのフラッシュ・ディスク・ステータスは次のとおりです。
-
正常
-
正常 - 交換のため切断
-
失敗
-
障害 - 交換のため切断
-
障害 - 不適切なディスク・モデルのため拒否
-
障害 - 不適切なディスク・モデルのため拒否 - 交換のため切断
-
障害 - 間違ったスロットのため拒否
-
障害 - 間違ったスロットのため拒否 - 交換のため切断
-
警告 - ピア障害
-
警告 - 予測障害、ライトスルー・キャッシュ
-
警告 - 予測障害
-
警告 - 予測障害 - 交換のため切断
-
警告 - ライトスルー・キャッシュ
2.4 データベース・サーバーへのディスク拡張キットの追加
ディスク拡張キットを使用すると、Oracle Exadata Database Serverにローカル記憶領域を追加できます。
2.4.1 データベース・サーバーX9M-2以降へのディスク拡張キットの追加
この手順では、Oracle Exadata X9M-2以降のデータベース・サーバーへのディスク拡張キットの追加について説明します。
開始前に、サーバーが新しいドライブの追加を認識できるように、サーバーの電源を入れておく必要があります。
ディスク拡張キットを追加するには:
関連トピック
- LVMパーティションの拡張
- KVMホストでの/EXAVMIMAGESの拡張
親トピック: データベース・サーバーへのディスク拡張キットの追加
2.4.2 データベース・サーバーX8M-2以前へのディスク拡張キットの追加
次の制限事項および要件に注意してください。
-
ディスク拡張キットは、Oracle Exadata Database Machine X5-2以降の2ソケットのシステムでのみサポートされています。
-
Oracle Exadata System Softwareリリース12.1.2.3.0以降が必要です。
-
Oracle Linux 6 (OL6)が実行されているシステムの場合は、新規追加されたディスク・パーティションがLinuxカーネルで認識されるようにするために再起動が必要です。
-
ディスク拡張キットをOracle Exadata Database Machine X7-2システムに追加し、かつ、18.1.11より前のOracle Exadata System Softwareリリースを使用する場合は、続行する前に、データベース・サーバーに次のシンボリック・リンクが存在することを確認してください。
# ls -l /opt/MegaRAID/MegaCli/MegaCli64 lrwxrwxrwx 1 root root 31 Jun 4 03:40 /opt/MegaRAID/MegaCli/MegaCli64 -> /opt/MegaRAID/storcli/storcli64
シンボリック・リンクが存在しない場合は、次のコマンドを使用して作成します。
# mkdir -p /opt/MegaRAID/MegaCli # ln -s /opt/MegaRAID/storcli/storcli64 /opt/MegaRAID/MegaCli/MegaCli64
Oracle Exadata Database Serverにディスク拡張キットを追加するには:
関連トピック
- LVMパーティションの拡張
- KVMホストでの/EXAVMIMAGESの拡張
親トピック: データベース・サーバーへのディスク拡張キットの追加
2.5 データベース・サーバーへのメモリー拡張キットの追加
データベース・サーバーにはメモリーを追加できます。メモリーの追加手順は、次のとおりです。
その他のノート:
-
Oracle Linuxを実行しているOracle Exadata Database Machineにメモリーを追加する場合、次の値を使用して
/etc/security/limits.conf
ファイルを更新することをお薦めします。oracle soft memlock 75% oracle hard memlock 75%
-
Sun Fire X4170 M2 Oracle Database Serverは、8GB DIMMを使用した18個のDIMMスロットのうち12個が搭載された96GBのメモリーで工場から出荷されます。オプションのX2-2メモリー拡張キットを使用すると、残りの6つの空スロットに16GB DIMMを使用して合計メモリーを192GB (12 x 8GBおよび6 x 16GB)に拡張できます。
メモリー拡張キットは、主に各データベース・サーバー上で多くのデータベースを実行する場合のワークロード統合用です。このシナリオでは、メモリー使用率が非常に高くても、CPU使用率が低いことがよくあります。
ただし、DIMMメモリーの周波数が1333MHzから800MHzに落ちるため、すべてのメモリー・スロットの使用量は減ります。メモリーのパフォーマンス効果が遅いので、CPU使用率が高くなったように感じます。CPU使用率を測定すると、通常、増加率は平均して5%から10%です。増加量はワークロードによって大きく異なります。テスト用ワークロードでは、複数ワークロードの場合、増加率はほぼゼロでしたが、1つのワークロードの場合の増加率は約20%でした。
親トピック: Exadataデータベース・サーバーの保守
2.6 X7以降のシステム用クライアント・ネットワーク・ポートのリンク速度の検証および変更
Oracle Exadata X7以降のデータベース・サーバーのクライアント・ネットワークで10 GbE接続または25 GbE接続を構成できます。
ノート:
クライアント・ネットワーク・ポートは、システムのデプロイメント時に、Oracle Exadata Deployment Assistant (OEDA)を使用して構成する必要があります。Oracle Exadata Deployment Assistantの使用を参照してください。次のステップは、OEDAデプロイメントが実行されていない場合や正しく実行されていない場合、クライアント・アクセス・ポートを構成するために必要になります。また、このステップでは、クライアント・ネットワークを10GbEから25GbEに、または25GbEから10GbEに変更できます。
親トピック: Exadataデータベース・サーバーの保守
2.7 Oracle Exadataでのネットワーク・カードの追加および構成
Oracle Exadata X6-2以降のシステムでネットワーク・カードを追加できます。
前提条件
Oracle Exadata X7-2以降の計算ノードに、正しいリンク速度を使用していることを確認してください。X7以降のシステム用クライアント・ネットワーク・ポートのリンク速度の検証および変更のステップを完了します。
Oracle Exadata X6-2
Oracle Exadata X6-2データベース・サーバーでは、マザーボードで高可用性の銅線10Gネットワークが提供され、スロット2のPCIカードを介して光学10Gネットワークが提供されます。オラクル社では、追加の接続を必要とするお客様のために追加のイーサネット・カードを用意しています。追加のカードにより、デュアル・ポートの10GEの銅線接続(部品番号7100488)またはデュアル・ポートの10GEの光学接続(部品番号X1109A-Z)が提供されます。Oracle Exadata X6-2データベース・サーバーのPCIeスロット1にこのカードを設置します。
カードを取り付けてネットワークに接続すると、Oracle Exadata System Softwareは、自動的にその新しいカードを認識してX6-2データベース・サーバー上で2つのポートをeth6
およびeth7
インタフェースとして構成します。これらの追加のポートを使用して追加のクライアント・ネットワークを提供することも、個別のバックアップまたはデータ・リカバリ・ネットワークを作成することもできます。仮想マシンを実行するデータベース・サーバーでは、これを使用して2つの仮想マシンからトラフィックを分離できます。
Oracle Exadata X7-2
Oracle Exadata X7-2以降のデータベース・サーバーでは、マザーボード上で2つの銅線(RJ45)ネットワーク接続または2つの光(SFP28)ネットワーク接続を利用できるだけでなく、PCIeカード・スロット1で2つの光(SFP28)ネットワーク接続を追加で利用できます。オラクル社では、追加の接続を必要とするお客様のために4つの追加の銅線(RJ45) 10Gネットワーク接続を用意しています。追加のカードはOracle Quad Port 10 GBase-Tカード(部品番号7111181)です。データベース・サーバーのPCIeスロット3にこのカードを設置します。
カードを取り付けてネットワークに接続すると、Oracle Exadata System Softwareは、自動的にその新しいカードを認識してデータベース・サーバー上で4つのポートをeth5
- eth8
インタフェースとして構成します。これらの追加のポートを使用して追加のクライアント・ネットワークを提供することも、個別のバックアップまたはデータ・リカバリ・ネットワークを作成することもできます。仮想マシンを実行するデータベース・サーバーでは、この追加のクライアント・ネットワークを使用して、2つの仮想マシンからのトラフィックを分離できます。
Oracle Exadata X8-2およびX8M-2
Oracle Exadata X8-2およびX8M-2のデータベース・サーバーでは、マザーボード上で2つの銅線(RJ45)ネットワーク接続または2つの銅線/光(SFP28)ネットワーク接続を利用できるだけでなく、PCIeカード・スロット1で2つの光(SFP28)ネットワーク接続を追加で利用できます。オラクル社では、追加の接続を必要とするお客様のために追加の4つの銅線1/10G (RJ45)または2つの光10/25G (SFP28)ネットワーク接続を用意しています。追加カードは次のとおりです。
- クアッドポート10 GBase-Tカード(部品番号7111181)
- デュアルポート25 Gbイーサネット・アダプタ(部品番号7118016)
追加カードは、データベース・サーバーのPCIeスロット3に取り付けます。
カードを取り付けてネットワークに接続すると、Oracle Exadata System Softwareはデータベース・サーバーで新しいカードを自動的に認識し、クアッド・ポート・カードの場合は4つのポートをeth5
からeth8
のインタフェースとして構成し、デュアル・ポート・カードの場合はeth5
とeth6
を構成します。これらの追加のポートを使用して追加のクライアント・ネットワークを提供することも、個別のバックアップまたはデータ・リカバリ・ネットワークを作成することもできます。仮想マシンを実行するデータベース・サーバーでは、この追加のクライアント・ネットワークを使用して、2つの仮想マシンからのトラフィックを分離できます。
Oracle Exadata X9M-2
Oracle Exadata X9M-2データベース・サーバーは、1つ、2つまたは3つのネットワーク・インタフェース・カードを使用して、柔軟性のある様々なネットワーク構成を提供します。各カードは次のいずれかになります。
- クアッドポート10 GBase-Tカード(RJ45) (部品番号7111181)
- デュアルポート25 Gbイーサネット・アダプタ(SFP28) (部品番号7118016)
最初のデプロイメント後、各データベース・サーバーでは最大3つのネットワーク・インタフェース・カードを追加できます。
エイス・ラック以外のシステムの場合のみ、オプションで、PCIeスロット2に1つのデュアルポート100 Gbイーサネット・アダプタ(QSFP28) (部品番号7603661)を取り付けることができます。
カードを取り付けてネットワークに接続すると、Oracle Exadata System Softwareは、その新しいカードを自動的に認識し、次のように物理ポートを構成します。
- PCIeスロット1のクアッドポート10 GBase-Tカード:
eth1
、eth2
、eth3
およびeth4
- PCIeスロット1のデュアルポート25 Gbイーサネット・アダプタ:
eth1
およびeth2
- PCIeスロット2のクアッドポート10 GBase-Tカード:
eth5
、eth6
、eth7
およびeth8
- PCIeスロット2のデュアルポート25 Gbイーサネット・アダプタ:
eth5
およびeth6
- PCIeスロット2のデュアルポート100 Gbイーサネット・アダプタ:
eth5
およびeth6
- PCIeスロット3のクアッドポート10 GBase-Tカード:
eth9
、eth10
、eth11
およびeth12
- PCIeスロット3のデュアルポート25 Gbイーサネット・アダプタ:
eth9
およびeth10
ネットワーク・ポートを使用すると、複数のクライアント・ネットワークを提供することも、バックアップとリカバリ、およびバルク・データ転送用にそれぞれ専用ネットワークを作成することもできます。仮想マシン(VM)を実行するデータベース・サーバーでは、複数のクライアント・ネットワークを使用して、各VMクラスタのトラフィックを分離できます。
Oracle Exadata X10M
Oracle Exadata X10Mデータベース・サーバーは、最大5つのネットワーク・インタフェース・カードを使用して、柔軟性のある様々なネットワーク構成を提供します。
各X10Mデータベース・サーバーには、工場出荷時にインストールされる2つのCX6-LXネットワーク・カードがあり、それぞれに2つのSFP+/SFP28ポート(10/25 GbE)があります。
各X10Mデータベース・サーバーには、フィールド・インストールされる追加のネットワークカードを含めることもできます。フィールド・インストールされるネットワーク・カードとして、次のものがサポートされています:
- 2つのSFP+/SFP28ポート(10/25 GbE)を持つCX6-LX
- 2つのQSFP28ポート(100GbE)を持つCX6-DX。各QSFP28ポートは、1つの10GbEまたは25GbEリンクを適切なブレイクアウト・ケーブルでサポートできます。
- 4つの10GBASE-Tポート(10 GbE)を備えたFortpond RJ45 Ethernet
オプションで、最大3つのフィールド・インストールされるネットワーク・カードを取り付けることができます。追加の各カードは、サポートされている任意のタイプにすることができます。
次のリストに、各X10Mデータベース・サーバーのネットワーク・インタフェース・カードに適用される物理ポート・マッピングの概要を示します:
- 出荷時に取り付けられたPCIeスロット3内のCX6-LXネットワーク・アダプタ:
eth9
およびeth10
- 出荷時に取り付けられたPCIeスロット8内のCX6-LXネットワーク・アダプタ:
eth29
およびeth30
- PCIeスロット1内のオプションのクワッドポートFortpond RJ45 Ethernetアダプタ:
eth1
、eth2
、eth3
およびeth4
- PCIeスロット1内のオプションのデュアルポート・ネットワーク・アダプタ(CX6-LXまたはCX6-DX):
eth1
およびeth2
- PCIeスロット2内のオプションのクワッドポートFortpond RJ45 Ethernetアダプタ:
eth5
、eth6
、eth7
およびeth8
- PCIeスロット2内のオプションのデュアルポート・ネットワーク・アダプタ(CX6-LXまたはCX6-DX):
eth5
およびeth6
- PCIeスロット6内のオプションのクワッドポートFortpond RJ45 Ethernetアダプタ:
eth21
、eth22
、eth23
およびeth24
- PCIeスロット6内のオプションのデュアルポート・ネットワーク・アダプタ(CX6-LXまたはCX6-DX):
eth21
およびeth22
ネットワーク・ポートを使用すると、複数のクライアント・ネットワークを提供することも、バックアップとリカバリ、およびバルク・データ転送用にそれぞれ専用ネットワークを作成することもできます。仮想マシン(VM)を実行するデータベース・サーバーでは、複数のクライアント・ネットワークを使用して、各VMクラスタのトラフィックを分離できます。
追加構成
次のトピックでは、データベース・サーバーにカードを追加した後に実行が必要な可能性がある追加の構成手順について説明します:
- ネットワーク・インタフェースの表示
ネットワーク・インタフェースを表示するには、ipconf.pl
コマンドを実行します。 - 非Oracle VM環境での追加のネットワーク・カードの構成
非Oracle VM環境のOracle Exadata X6-2以降のデータベース・サーバーでは追加のネットワーク・カードを構成できます。 - Oracle VM環境での追加のネットワーク・カードの構成
Oracle VM環境のOracle Exadata X6-2以降のデータベース・サーバーでは追加のネットワーク・カードを構成できます。
親トピック: Exadataデータベース・サーバーの保守
2.7.1 ネットワーク・インタフェースの表示
ネットワーク・インタフェースを表示するには、ipconf.pl
コマンドを実行します。
例2-2 Oracle Exadata X8M-2データベース・サーバーのデフォルト・ネットワーク・インタフェースの表示
次に、追加のネットワーク・カードを装備していないOracle Exadata X8M-2データベース・サーバーの出力例を示します。RDMAネットワーク・ファブリックのインタフェースに加えて、この出力には3つのネットワーク・カードのインタフェースが示されています。
- シングル・ポートの1/10Gbカード、
eth0
- eth1およびeth2のデュアル・ポート10または25Gbカード
- デュアル・ポートの10または25Gbカード、eth3およびeth4
root@scaz23adm01 ibdiagtools]# /opt/oracle.cellos/ipconf.pl
[Info]: ipconf command line: /opt/oracle.cellos/ipconf.pl
Logging started to /var/log/cellos/ipconf.log
Interface re0 is Linked. hca: mlx5_0
Interface re1 is Linked. hca: mlx5_0
Interface eth0 is Linked. driver/mac: igb/00:10:e0:c3:b7:9c
Interface eth1 is Unlinked. driver/mac: bnxt_en/00:10:e0:c3:b7:9d (slave of bondeth0)
Interface eth2 is Linked. driver/mac: bnxt_en/00:10:e0:c3:b7:9d (slave of bondeth0)
Interface eth3 is Unlinked. driver/mac: bnxt_en/00:0a:f7:c3:28:30
Interface eth4 is Unlinked. driver/mac: bnxt_en/00:0a:f7:c3:28:38
例2-3 Oracle Exadata X7-2またはX8-2データベース・サーバーのデフォルト・ネットワーク・インタフェースの表示
次に、追加のネットワーク・カードを装備していないOracle Exadata X7-2またはX8-2データベース・サーバーの出力例を示します。RDMAネットワーク・ファブリックのインタフェースに加えて、この出力には3つのネットワーク・カードのインタフェースが示されています。
- eth0のシングル・ポート10Gbカード
- eth1およびeth2のデュアル・ポート10または25Gbカード
- eth3およびeth4のデュアル・ポート25Gbカード
# /opt/oracle.cellos/ipconf.pl
Logging started to /var/log/cellos/ipconf.log
Interface ib0 is Linked. hca: mlx4_0
Interface ib1 is Linked. hca: mlx4_0
Interface eth0 is Linked. driver/mac: igb/00:
10:e0:c3:ba:72
Interface eth1 is Linked. driver/mac: bnxt_en
/00:10:e0:c3:ba:73
Interface eth2 is Linked. driver/mac: bnxt_en
/00:10:e0:c3:ba:74
Interface eth3 is Linked. driver/mac: bnxt_en
/00:0a:f7:c3:14:a0 (slave of bondeth0)
Interface eth4 is Linked. driver/mac: bnxt_en
/00:0a:f7:c3:14:a0 (slave of bondeth0)
例2-4 Oracle Exadata X6-2データベース・サーバーのデフォルト・ネットワーク・インタフェースの表示
次に、追加のネットワーク・カードを装備していないOracle Exadata X6-2データベース・サーバーの出力例を示します。RDMAネットワーク・ファブリックのインタフェースに加えて、この出力には2つのネットワーク・カードのインタフェースが示されています。
- eth0からeth3のクアッド・ポート10Gbカード
- eth4およびeth5のデュアル・ポート10Gbカード
# cd /opt/oracle.cellos/
# ./ipconf.pl
Logging started to /var/log/cellos/ipconf.log
Interface ib0 is Linked. hca: mlx4_0
Interface ib1 is Linked. hca: mlx4_0
Interface eth0 is Linked. driver/mac: ixgbe/00:10:e0:8b:24:b6
Interface eth1 is ..... Linked. driver/mac: ixgbe/00:10:e0:8b:24:b7
Interface eth2 is ..... Linked. driver/mac: ixgbe/00:10:e0:8b:24:b8
Interface eth3 is ..... Linked. driver/mac: ixgbe/00:10:e0:8b:24:b9
Interface eth4 is Linked. driver/mac: ixgbe/90:e2:ba:ac:20:ec (slave of bondeth0)
Interface eth5 is Linked. driver/mac: ixgbe/90:e2:ba:ac:20:ec (slave of bondeth0)
2.7.2 非Oracle VM環境での追加のネットワーク・カードの構成
非Oracle VM環境のOracle Exadata X6-2以降のデータベース・サーバーでは追加のネットワーク・カードを構成できます。
この手順では、Oracle Exadataデータベース・サーバーにネットワーク・カードがすでにインストールされているが、まだOracle Exadata Deployment Assistant (OEDA)で構成を完了していないことを前提としています。
警告:
Oracle ExadataでOracle Grid Infrastructureがすでにインストールされている場合、Oracle Clusterwareのドキュメントを参照してください。クラスタのネットワーク・インタフェースは慎重に変更してください。2.7.3 Oracle VM環境での追加のネットワーク・カードの構成
Oracle VM環境のOracle Exadata X6-2以降のデータベース・サーバーでは追加のネットワーク・カードを構成できます。
この手順では、Oracle Exadataデータベース・サーバーにネットワーク・カードがすでにインストールされているが、まだOracle Exadata Deployment Assistant (OEDA)で構成を完了していないことを前提としています。
注意:
Oracle ExadataでOracle Grid Infrastructureをすでにインストールしている場合は、この手順を実行しないでください。2.8 データベース・サーバーのアクティブ・コア数の増加
キャパシティ・オンデマンドを使用して、Oracle Exadataのアクティブ・コア数を増やすことができます。
Oracle Exadata Database Machine X4-2以降のシステムで実行されるデータベース・サーバー上のアクティブ・コア数を、インストール中に減らすことができます。追加の容量が必要な場合は、アクティブ・コア数を増やすことができます。これは、キャパシティ・オンデマンドと呼ばれます。
追加のコアは、2ソケット・システムでは2コアの増分で、8ソケット・システムでは8コアの増分で増やします。次の表に、キャパシティ・オンデマンドのコア・プロセッサの構成を示します。
表2-3 キャパシティ・オンデマンドのコア・プロセッサの構成
Oracle Exadata | 対象となるシステム | サーバー当たりの最小コア数 | サーバー当たりの最大コア数 | コアの増分 |
---|---|---|---|---|
Oracle Exadata X10M |
エイス・ラック以外の構成 |
14 | 192 |
14から192まで、増分は2です: 14, 16, 18, …, 190, 192 |
Oracle Exadata X9M-2 |
エイス・ラック以外の構成 |
14 | 64 |
14から64まで、増分は2です。 14, 16, 18, …, 62, 64 |
Oracle Exadata X9M-2 |
エイス・ラック |
8 | 32 |
8から32まで、増分は2です。 8, 10, 12, …, 30, 32 |
Oracle Exadata X7-2、X8-2、X8M-2 |
エイス・ラック以外の構成 |
14 |
48 |
14から48まで、増分は2です。 14, 16, 18, …, 46, 48 |
Oracle Exadata X7-2、X8-2、X8M-2 |
エイス・ラック |
8 |
24 |
8から24まで、増分は2です。 8, 10, 12, …, 22, 24 |
Oracle Exadata Database Machine X6-2 |
エイス・ラック以外の構成 |
14 |
44 |
14から44まで、増分は2です。 14, 16, 18, …, 42, 44 |
Oracle Exadata Database Machine X6-2 |
エイス・ラック |
8 |
22 |
8から22まで、増分は2です。 8, 10, 12, …, 20, 22 |
Oracle Exadata Database Machine X5-2 |
エイス・ラック以外の構成 |
14 |
36 |
14から36まで、増分は2です。 14, 16, 18, …, 34, 36 |
Oracle Exadata Database Machine X5-2 |
エイス・ラック |
8 |
18 |
8から18まで、増分は2です。 8, 10, 12, 14, 16, 18 |
Oracle Exadata Database Machine X4-2 |
フル・ラック ハーフ・ラック クオータ・ラック |
12 |
24 |
12から24まで、増分は2です。 12, 14, 16, 18, 20, 22, 24 |
Oracle Exadata X7-8、X8-8、X8M-8およびX9M-8 |
任意の構成 |
56 |
192 |
56から192まで、増分は8です。 56, 64, 72, …, 184, 192 |
Oracle Exadata X6-8およびX5-8 |
任意の構成 |
56 |
144 |
56から144まで、増分は8です。 56, 64, 72, …, 136, 144 |
Oracle Exadata Database Machine X4-8 |
フル・ラック |
48 |
120 |
48から120まで、増分は8です。 48, 56, 64, …, 112, 120 |
ノート:
フェイルオーバーに備えて、各サーバーに同数のコアをライセンスすることをお薦めします。
追加できるデータベース・サーバーは一度に1つずつで、キャパシティ・オンデマンドは個別のデータベース・サーバーに適用されます。このオプションはOracle Exadata Database Machine X5-2エイス・ラックでも使用できます。
追加したコアを有効化してから、データベース・サーバーを再起動する必要があります。データベース・サーバーがクラスタの一部の場合、ローリング方式で有効化されます。
2.9 LVMパーティションの拡張
Logical Volume Manager (LVM)により、データベース・サーバー内のパーティションを再編成する柔軟性が提供されます。
ノート:
-
VGExaDb
ボリューム・グループ内に、少なくとも1GBの空き領域が必要です。この領域は、ソフトウェア保守の際に、dbnodeupdate.sh
ユーティリティで作成したLVMスナップショットで使用します。 -
「Oracle Linuxデータベース・サーバーのスナップショット・ベースのバックアップの作成」のステップに従い、
/
(root)および/u01
ディレクトリのバックアップをスナップショット・ベースで作成する場合、VGExaDb
ボリューム・グループに少なくとも6GBの空き領域が必要です。
この項では、次の項目について説明します。
- ルートLVMパーティションの拡張
ルートLVMパーティションを拡張する手順は、Oracle Exadata System Softwareのリリースによって異なります。 - ルート以外のLVMパーティションのサイズ変更
ルート以外のLVMパーティションのサイズを変更する手順は、Oracle Exadata System Softwareのリリースによって異なります。 - スワップ・パーティションの拡張
この手順では、スワップ・パーティションのサイズを拡大する方法について説明します。
親トピック: Exadataデータベース・サーバーの保守
2.9.1 ルートLVMパーティションの拡張
ルートLVMパーティションを拡張する手順は、Oracle Exadata System Softwareのリリースによって異なります。
- Oracle Exadata System Softwareリリース11.2.3.2.1以上を実行するシステムでの、ルートLVMパーティションの拡張
- Oracle Exadata System Softwareリリース11.2.3.2.1より前のリリースを実行するシステムでの、ルートLVMパーティションの拡張
この手順を使用すると、Oracle Exadata System Software 11.2.3.2.1より前のリリースを実行するシステムでルート(/
)パーティションのサイズを拡張できます。
親トピック: LVMパーティションの拡張
2.9.1.1 Oracle Exadata System Softwareリリース11.2.3.2.1以上を実行するシステムでの、ルートLVMパーティションの拡張
次の手順では、Oracle Exadata System Softwareリリース11.2.3.2.1以上を実行するシステム上で、ルート(/
)パーティションのサイズを拡大する方法について説明します。
ノート:
-
この手順では、サーバーを停止する必要はありません。
-
管理ドメインのシステムの場合、アクティブおよび非アクティブのSys LVMは、
LVDbSys2
およびLVDbSys3
です(LVDbSys1
およびLVDbSys2
ではありません)。 -
LVDbSys1
およびLVDbSys2
のサイズが同じに設定されていることを確認します。
親トピック: ルートLVMパーティションの拡張
2.9.1.2 Oracle Exadata System Softwareリリース11.2.3.2.1より前のリリースを実行するシステムでの、ルートLVMパーティションの拡張
この手順を使用すると、Oracle Exadata System Software 11.2.3.2.1より前のリリースを実行するシステムでルート(/
)パーティションのサイズを拡張できます。
ノート:
-
この手順では、システムをオフラインにしてから再起動する必要があります。
-
ソフトウェア保守の際に
dbnodeupdate.sh
ユーティリティで作成されるLVMスナップショットのために、VGExaDb
ボリューム・グループ内に、少なくとも1GBの空き領域が必要です。「Oracle Linuxデータベース・サーバーのスナップショット・ベースのバックアップの作成」のステップに従い、/
(root)および/u01
ディレクトリのバックアップをスナップショット・ベースで作成する場合、VGExaDb
ボリューム・グループに少なくとも6GBの空き領域が必要です。 -
管理ドメインのシステムの場合、アクティブおよび非アクティブのSys LVMは、
LVDbSys2
とLVDbSys3
です(LVDbSys1
とLVDbSys2
ではありません)。 -
LVDbSys1
およびLVDbSys2
のサイズが同じに設定されていることを確認します。
親トピック: ルートLVMパーティションの拡張
2.9.2 ルート以外のLVMパーティションのサイズ変更
ルート以外のLVMパーティションのサイズを変更する手順は、Oracle Exadata System Softwareのリリースによって異なります。
- Oracle Exadata System Softwareリリース11.2.3.2.1以上を実行するシステムでの、非ルートLVMパーティションの拡張
この手順では、Oracle Exadata System Software 11.2.3.2.1以降のリリースを実行するシステムで非ルート(/u01
)パーティションのサイズを拡大する方法を説明します。 - Oracle Exadata System Softwareリリース11.2.3.2.1より前のリリースを実行するシステムでの、非ルートLVMパーティションの拡張
この手順では、Oracle Exadata System Software 11.2.3.2.1より前のリリースを実行するシステムで非ルート(/u01
)パーティションのサイズを拡大する方法を説明します。 - Oracle Exadata System Softwareリリース11.2.3.2.1以上を実行するシステムでの、非ルートLVMパーティションの縮小
Oracle Exadata System Software 11.2.3.2.1以降のリリースを実行するシステムで非ルート(/u01
)パーティションのサイズを縮小できます。
親トピック: LVMパーティションの拡張
2.9.2.1 Oracle Exadata System Softwareリリース11.2.3.2.1以上を実行するシステムでの、非ルートLVMパーティションの拡張
この手順では、Oracle Exadata System Softwareリリース11.2.3.2.1以降を実行するシステム上で、非ルート(/u01
)パーティションのサイズを拡大する方法について説明します。
この手順では、サーバーを停止する必要はありません。
親トピック: ルート以外のLVMパーティションのサイズ変更
2.9.2.2 Oracle Exadata System Softwareリリース11.2.3.2.1より前のリリースを実行するシステムでの、非ルートLVMパーティションの拡張
この手順では、Oracle Exadata System Softwareリリース11.2.3.2.1より前のリリースを実行するシステム上で、非ルート(/u01
)パーティションのサイズを拡大する方法について説明します。
ここでは、/dev/VGExaDb/LVDbOra1
が/u01
でマウントされます。
ノート:
-
VGExaDb
ボリューム・グループ内に、少なくとも1GBの空き領域が必要です。この領域は、ソフトウェア保守の際に、dbnodeupdate.sh
ユーティリティで作成したLVMスナップショットで使用します。 -
「Oracle Linuxデータベース・サーバーのスナップショット・ベースのバックアップの作成」のステップに従い、
/
(root)および/u01
ディレクトリのバックアップをスナップショット・ベースで作成する場合、VGExaDb
ボリューム・グループに少なくとも6GBの空き領域が必要です。
2.9.2.3 Oracle Exadata System Softwareリリース11.2.3.2.1以上を実行するシステムでの、非ルートLVMパーティションの縮小
Oracle Exadata System Softwareリリース11.2.3.2.1以降を実行しているシステムでは、ルート以外(/u01
)のパーティションサイズを縮小できます。
ノート:
-
この手順では、サーバーを停止する必要はありません。
-
この手順を実行する前に、ファイル・システムをバックアップすることをお薦めします。
親トピック: ルート以外のLVMパーティションのサイズ変更
2.9.3 スワップ・パーティションの拡張
この手順では、スワップ・パーティションのサイズを拡大する方法について説明します。
ノート:
システムでOracleデータベースが実行されていないときに、スワップ・パーティションを拡張することをお薦めします。そのため、この手順では、システム上のすべてのOracleデータベースを停止できるメンテナンス・ウィンドウが必要です。
ソフトウェア保守の際にdbnodeupdate.sh
ユーティリティで作成されるLogical Volume Manager (LVM)スナップショットのために、VGExaDb
ボリューム・グループ内に、少なくとも1GBの空き領域が必要です。「Oracle Linuxデータベース・サーバーのスナップショット・ベースのバックアップの作成」のステップに従い、/
(root)および/u01
ディレクトリのバックアップをスナップショット・ベースで作成する場合、VGExaDb
ボリューム・グループに少なくとも6GBの空き領域が必要です。
親トピック: LVMパーティションの拡張
2.10 Oracle Linuxデータベース・サーバーのスナップショット・ベースのバックアップの作成
データベース・サーバーのソフトウェアの重要な変更の前後にバックアップを行う必要があります。たとえば、次の手順の前後にバックアップを作成する必要があります。
- オペレーティング・システム・パッチの適用
- Oracleパッチの適用
- 重要な操作パラメータの再構成
- 重要なOracle以外のソフトウェアのインストールまたは再構成
Oracle Exadata System Softwareリリース19.1.0以降では、SSHDのClientAliveInterval
は600秒にデフォルト設定されます。バックアップの完了に必要な時間が10分を超える場合は、/etc/ssh/sshd_config
ファイルでClientAliveInterval
により大きな値を指定できます。変更内容を反映するには、SSHサービスを再起動する必要があります。長時間実行の操作が完了したら、ClientAliveInterval
パラメータへの変更を削除し、SSHサービスを再起動します。
この項では、次の項目について説明します。
- X8M以降のExadataデータベース・サーバーのスナップショットベースのバックアップの作成 - パーティションをカスタマイズしていない場合
この手順では、ストレージ・パーティションをカスタマイズしていない場合にOracle Exadata X8M以降のデータベース・サーバーのスナップショットベースのバックアップを取得する方法について説明します。 - Exadata X8以前のデータベース・サーバーのスナップショット・ベースのバックアップの作成 - パーティションをカスタマイズしていない場合
この手順は、スナップショット・ベースのバックアップを取得する方法を示しています。手順で示す値は、例です。 - Oracle Linuxデータベース・サーバーのスナップショット・ベースのバックアップの作成 - パーティションをカスタマイズしている場合
親トピック: Exadataデータベース・サーバーの保守
2.10.1 X8M以降のExadataデータベース・サーバーのスナップショットベースのバックアップの作成 - パーティションをカスタマイズしていない場合
この手順では、ストレージ・パーティションをカスタマイズしていない場合にOracle Exadata X8M以降のデータベース・サーバーのスナップショットベースのバックアップを取得する方法について説明します。
Oracle Exadata X8MおよびOracle Exadata System Softwareリリース19.3以降では、データベース・サーバーは次のストレージ・パーティションを使用します。
ファイル・システムのマウント・ポイント | 論理ボリューム名 |
---|---|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ノート:
- この手順は、データベース・サーバー出荷時の正確ストレージ・パーティションを前提としています。ストレージ・パーティションを少しでも変更した場合、この手順および関連するリカバリ手順を変更なしに使用することはできません。変更には、パーティション・サイズの変更、パーティションの名前変更、パーティションの追加またはパーティションの削除が含まれます。
root
ユーザーとして、すべてのステップを実行する必要があります。
2.10.2 Exadata X8以前のデータベース・サーバーのスナップショット・ベースのバックアップの作成 - パーティションをカスタマイズしていない場合
この手順は、スナップショット・ベースのバックアップを取得する方法を示しています。手順で示す値は、例です。
元の出荷時の構成からデータベース・サーバー・パーティションをカスタマイズしていない場合、この項の手順を使用してバックアップを作成し、そのバックアップを使用してデータベース・サーバーをリストアします。
ノート:
-
リカバリ手順により、出荷時の名前およびサイズを含む正確なパーティションがリストアされます。パーティションを少しでも変更した場合、この手順は使用できません。変更には、サイズや名前の変更、パーティションの追加または削除が含まれます。
-
root
ユーザーとして、すべてのステップを実行する必要があります。
2.10.3 Oracle Linuxデータベース・サーバーのスナップショット・ベースのバックアップの作成 - パーティションをカスタマイズしている場合
パーティションをカスタマイズしている場合、バックアップ手順は通常、パーティションをカスタマイズされていないデータベース・サーバーの手順と同じですが、次の変更が加えられています。
-
追加のパーティションをバックアップするコマンドを追加する必要があります。プロシージャ全体で、
/u01
パーティションに関連するコマンドをテンプレートとして使用し、適合するように引数を適切に変更します。 -
パーティションが変更された場合は、変更された属性をコマンドで使用します。たとえば、
/u01
の名前が/myown_u01
に変更された場合、コマンドに/myown_u01
を使用します。
2.11 スナップショット・ベースのバックアップを使用したOracle Linuxデータベース・サーバーのリカバリ
Oracle Linuxを実行するデータベース・サーバーのファイル・システムは、データベース・サーバーで重大な障害が発生した後またはサーバー・ハードウェアを新しいハードウェアに交換した後に、スナップショット・ベースのバックアップを使用してリカバリできます。
たとえば、すべてのハード・ディスクを交換すると、システムの元のソフトウェアはトレースできません。これは、ソフトウェアの完全なシステムの交換と似ています。さらに、障害状態になる前にデータベース・サーバーが正常であったときに取得したLVMスナップショット・ベースのバックアップを使用するデータベース・サーバーの障害リカバリ方法を提供します。
この項で説明するリカバリの手順には、ストレージ・サーバーまたはOracleデータベースに格納されたデータのバックアップやリカバリは含まれません。バックアップとリカバリ手順は定期的にテストすることをお薦めします。
- データベース・サーバーのスナップショット・ベースのリカバリの概要
リカバリ・プロセスは複数のタスクで構成されます。 - Oracle Linuxデータベース・サーバーのリカバリ - パーティションをカスタマイズしていない場合
カスタマイズしていないパーティションを使用している場合は、スナップショット・ベースのバックアップを使用してOracle Linuxデータベース・サーバーをリカバリできます。 - Exadata X10Mデータベース・サーバーのリカバリ - パーティションをカスタマイズしている場合
この手順では、パーティションをカスタマイズしているときに、RoCEネットワーク・ファブリックを使用してOracle Exadata X10Mデータベース・サーバーをスナップショットベースのバックアップからリカバリする方法について説明します。 - Exadata X9Mデータベース・サーバーのリカバリ - パーティションをカスタマイズしている場合
この手順では、パーティションをカスタマイズしているときに、RoCEネットワーク・ファブリックを使用してOracle Exadata X9Mデータベース・サーバーをスナップショットベースのバックアップからリカバリする方法について説明します。 - Exadata X8Mデータベース・サーバーのリカバリ - パーティションをカスタマイズしている場合
この手順では、パーティションをカスタマイズしているときに、RoCEネットワーク・ファブリックを使用してOracle Exadata X8Mデータベース・サーバーをスナップショットベースのバックアップからリカバリする方法について説明します。 - Exadataデータベース・サーバーX7またはX8のリカバリ - パーティションをカスタマイズしている場合
次の手順では、パーティションをカスタマイズしているときに、InfiniBandネットワーク・ファブリックを使用してOracle Exadata X7またはX8 Oracle Linuxデータベース・サーバーをスナップショットベースのバックアップからリカバリする方法について説明します。 - Exadata X6以前のデータベース・サーバーのリカバリ - パーティションをカスタマイズしている場合
次の手順では、カスタマイズしたパーティションを使用しているときに、Oracle Linuxを実行しているOracle Exadata X6-2以前のOracle Exadata Database Serverをスナップショット・ベースのバックアップからリカバリする方法について説明します。 - Oracle Exadata Database Machineエイス・ラックのOracle Linuxデータベース・サーバーのリカバリ後の構成
親トピック: Exadataデータベース・サーバーの保守
2.11.1 データベース・サーバーのスナップショット・ベースのリカバリの概要
リカバリ・プロセスは、一連のタスクで構成されています。
リカバリ手順では、diagnostics.iso
イメージを仮想CD-ROMとして使用し、ILOMを使用してレスキュー・モードでデータベース・サーバーを再起動します。
ノート:
テープからリストアする場合は、追加のドライブをロードする必要がありますが、この章では扱いません。ファイルはNFSの場所にバックアップし、既存のテープ・オプションを使用して、NFSホストとの間でバックアップとリカバリを行うことをお薦めします。一般的なワークフローに含まれるタスクは次のとおりです。
-
次のものを再作成します。
- ブート・パーティション
- 物理ボリューム
- ボリューム・グループ
- 論理ボリューム
- ファイル・システム
- スワップ・パーティション
- スワップ・パーティションをアクティブ化します。
/boot
パーティションがアクティブなブート・パーティションであることを確認します。- データをリストアします。
- GRUBを再構成します。
- サーバーを再起動します。
quorumディスクを使用する場合は、バックアップからデータベース・サーバーをリカバリした後に、リカバリされたサーバーのquorumディスクを手動で再構成する必要があります。詳細は、データベース・サーバーのリストア後のquorumディスクの再構成を参照してください。
2.11.2 Oracle Linuxデータベース・サーバーのリカバリ - パーティションをカスタマイズしていない場合
パーティションをカスタマイズしていない場合にスナップショット・ベースのバックアップを使用してOracle Linuxデータベース・サーバーをリカバリできます。
この手順は、パーティション、論理ボリューム、ファイル・システム、およびそれらのサイズの配置がデータベース・サーバーの最初のデプロイ時の配置と等しい場合に適用されます。
注意:
ディスクの既存のすべてのデータは、この手順の実行中に失われます。2.11.3 Exadata X10Mデータベース・サーバーのリカバリ - パーティションをカスタマイズしている場合
この手順では、パーティションをカスタマイズしているときに、RoCEネットワーク・ファブリックを使用してOracle Exadata X10Mデータベース・サーバーをスナップショットベースのバックアップからリカバリする方法について説明します。
2.11.4 Exadata X9Mデータベース・サーバーのリカバリ - パーティションをカスタマイズしている場合
この手順では、パーティションをカスタマイズしているときに、RoCEネットワーク・ファブリックを使用してOracle Exadata X9Mデータベース・サーバーをスナップショットベースのバックアップからリカバリする方法について説明します。
2.11.5 Exadata X8Mデータベース・サーバーのリカバリ - パーティションをカスタマイズしている場合
この手順では、パーティションをカスタマイズしているときに、RoCEネットワーク・ファブリックを使用してOracle Exadata X8Mデータベース・サーバーをスナップショットベースのバックアップからリカバリする方法について説明します。
2.11.6 Exadata Database Server X7またはX8のリカバリ - パーティションをカスタマイズしている場合
次の手順では、パーティションをカスタマイズしているときに、InfiniBand Network Fabricを使用してOracle Exadata X7またはX8のOracle Linuxデータベース・サーバーをスナップショットベースのバックアップからリカバリする方法について説明します。
ノート:
このタスクは、Oracle Exadata System Softwareリリース18c (18.1.0)以降を実行していることが前提です。2.11.7 Exadata X6以前のデータベース・サーバーのリカバリ - パーティションをカスタマイズしている場合
次の手順では、カスタマイズしたパーティションを使用しているときに、Oracle Linuxを実行しているOracle Exadata X6-2以前のOracle Exadata Database Serverをスナップショット・ベースのバックアップからリカバリする方法について説明します。
2.11.8 Oracle Exadata Database Machineエイス・ラックのOracle Linuxデータベース・サーバーのリカバリ後の構成
Oracle Exadata Database Machineエイス・ラックのOracle Linuxデータベース・サーバーを再イメージ化、リストアまたはレスキューした場合は、エイス・ラックを再構成できます。
2.11.8.1 Oracle Exadata Storage Serverリリース12.1.2.3.0以上を実行するX3-2以上のマシンでのエイス・ラックの構成
Oracle Exadata Database Machineエイス・ラックのOracle Linuxデータベース・サーバーを再イメージ化、リストアまたはレスキューした場合は、次の手順を実行する必要があります。
X3-2システムでは、Oracle Exadata System Softwareリリース12.1.2.3.0以上を実行している場合のみこの方法を使用します。
2.12 Oracle Exadata Database Serverの再イメージ化
様々な理由によりデータベース・サーバーを初期状態にする必要がある場合は、再イメージ化の手順が必要になります。
データベース・サーバーの再イメージ化は、次のような場合に求められます。
- 新しいサーバーをインストールするときに、すでにサーバーにインストールされているイメージよりも前のリリースを使用する必要がある場合。
- 障害が発生したデータベース・サーバーを新しいデータベース・サーバーに交換する必要がある場合。
- データベース・サーバーに複数のディスク障害があるためローカル・ディスクのストレージに障害が発生していて、データベース・サーバーのバックアップがない場合。
- 新しいラックでサーバーを再利用する場合。
再イメージ化手順の実行中に、Oracle Exadataの他のデータベース・サーバーを使用できます。クラスタに新しいサーバーを追加すると、ソフトウェアが既存のデータベース・サーバーから新しいサーバーにコピーされます。スクリプト、CRONジョブ、保守処置、Oracle以外のソフトウェアのリストアはユーザーが行います。
ノート:
この項の手順は、データベースがOracle Database 11gリリース2 (11.2)以降であると仮定します。Oracle Exadata System Softwareリリース19.1.0以降、ハードウェアがSecure Eraserをサポートしている場合、Secure Eraserは再イメージ化中に自動的に起動されます。これにより、パフォーマンスを維持しながら再イメージ化手順が大幅に簡略化されます。ラックを再購入する場合は、ラックをイメージ化するだけで、プロセスの一環としてセキュア・データ消去が透過的に行われます。
次のタスクは、Oracle Linuxを実行するOracle Exadata Database Serverを再イメージ化する方法を示しています。
- Oracleサポート・サービスへの連絡
障害が発生したサーバーを交換する場合は、Oracleサポート・サービスでサポート・リクエストを開きます。 - クラスタ検証ユーティリティの最新リリースのダウンロード
クラスタ検証ユーティリティ(cluvfy
)の最新リリースは、My Oracle Supportから入手できます。 - クラスタからのデータベース・サーバーの削除
障害が発生したサーバーを再イメージ化する場合やサーバーを再利用する場合は、このタスクのステップに従って、再イメージ化の前にクラスタからサーバーを削除します。それ以外の理由のためにサーバーを再イメージ化する場合は、このタスクをスキップし、その次の再イメージ化の作業に進んでください。 - データベース・サーバーのイメージ化
データベース・サーバーのインストール後または交換後に、新しいデータベース・サーバーのイメージを作成できます。 - 再イメージ化したデータベース・サーバーの構成
再イメージ化したデータベース・サーバーには、ホスト名、IPアドレス、DNSまたはNTPの設定がありません。このタスクのステップでは、再イメージ化したデータベース・サーバーを構成する方法について説明します。 - 再イメージ化したデータベース・サーバーのクラスタのための準備
このタスクでは、初期インストール時に、再イメージ化したベア・メタルのデータベース・サーバーに確実に変更が加えられるようにする方法について説明します。 - Oracle Exadata System Softwareのパッチ・バンドルの交換データベース・サーバーへの適用
Oracle ExadataのOracle Exadata System Softwareパッチ・バンドルが定期的にリリースされています。 - 交換データベース・サーバーへのOracle Grid Infrastructureのクローニング
この手順では、交換データベース・サーバーにOracle Grid Infrastructureをクローニングする方法について説明します。 - 交換データベース・サーバーへのOracle Databaseホームのクローニング
次の手順では、交換サーバーにOracle Databaseホームをクローニングする方法について説明します。
親トピック: Exadataデータベース・サーバーの保守
2.12.1 Oracleサポート・サービスへの連絡
障害が発生したサーバーを交換する場合は、Oracleサポート・サービスでサポート・リクエストを開きます。
サポート・エンジニアが障害が発生したサーバーを確認し、交換サーバーを送ります。サポート・エンジニアは、実行データベース・サーバーから実行したimagehistory
コマンドの出力結果を要求します。出力結果により、元のデータベース・サーバーのイメージ化に使用したcomputeImageMaker
ファイルへのリンクと、システムを同じレベルにリストアする手段が提供されます。
2.12.2 クラスタ検証ユーティリティの最新リリースのダウンロード
クラスタ検証ユーティリティ(cluvfy
)の最新リリースは、My Oracle Supportで入手できます。
ダウンロードの手順およびその他の情報は、My Oracle Supportノート316817.1を参照してください。
2.12.3 クラスタからのデータベース・サーバーの削除
障害が発生したサーバーを再イメージ化する場合やサーバーを再利用する場合は、このタスクのステップに従って、再イメージ化の前にクラスタからサーバーを削除します。それ以外の理由のためにサーバーを再イメージ化する場合は、このタスクをスキップし、その次の再イメージ化の作業に進んでください。
このタスクのステップは、クラスタで動作しているデータベース・サーバーを使用して実行されます。次のコマンドのworking_serverは、動作しているデータベース・サーバーです。また、failed_serverは、障害が発生しているか再利用のために削除するデータベース・サーバーです。
2.12.4 データベース・サーバーのイメージ化
データベース・サーバーのインストール後または交換後に、新しいデータベース・サーバーのイメージを作成できます。
USBサム・ドライブでインストール・メディアを使用することも、ILOMにアタッチされているPXEまたはISOを使用してタッチレス・オプションを使用することもできます。詳細は、Oracle Exadata Database Machineインストレーションおよび構成ガイドの新規システムのイメージ化を参照してください。
2.12.5 再イメージ化したデータベースの構成
再イメージ化したデータベース・サーバーには、ホスト名、IPアドレス、DNSまたはNTPの設定がありません。このタスクのステップでは、再イメージ化したデータベース・サーバーを構成する方法について説明します。
再イメージ化したデータベースの構成前に、次の情報が必要になります。
- ネーム・サーバー
- 南北アメリカ/シカゴなどのタイムゾーン
- NTPサーバー
- 管理ネットワークのIPアドレス情報
- クライアント・アクセス・ネットワークのIPアドレス情報
- RDMAネットワーク・ファブリックのIPアドレス情報
- 標準的なホスト名
- デフォルトのゲートウェイ
Oracle Exadataのすべてのデータベース・サーバーで情報を同じにする必要があります。IPアドレスは、DNSから取得できます。また、Oracle Exadataがインストールされたときに、この情報を含むドキュメントが提供されています。
次の手順では、再イメージ化したデータベース・サーバーを構成する方法について説明します。
- 交換データベース・サーバーの電源を投入します。システムがブートすると、自動的にOracle Exadataの構成ルーチンが実行され、情報の入力が要求されます。
- 要求された場合は情報を入力して、設定を確認します。起動プロセスが続行されます。
ノート:
-
データベース・サーバーがすべてのネットワーク・インタフェースを使用していない場合は、構成プロセスが停止し、いずれかのネットワーク・インタフェースが切断されているという警告が出されます。検出プロセスを再試行するかどうかの確認を求められます。環境に応じて、
yes
またはno
と入力します。 -
クライアント・アクセス・ネットワークにボンディングが使用される場合、この時点でデフォルトのアクティブ/パッシブ・モードに設定されます。
2.12.6 再イメージ化したデータベース・サーバーのクラスタのための準備
このタスクでは、初期インストール時に、再イメージ化したベア・メタルのデータベース・サーバーに確実に変更が加えられるようにする方法について説明します。
2.12.7 Oracle Exadata System Softwareのパッチ・バンドルの交換データベース・サーバーへの適用
Oracle ExadataのOracle Exadata System Softwareパッチ・バンドルが定期的にリリースされています。
computeImageMaker
ファイルのリリースよりも新しいパッチ・バンドルが動作しているデータベース・サーバーに適用された場合、パッチ・バンドルを交換するOracle Exadata Database Serverに適用する必要があります。次に示すように、パッチ・バンドルが適用されているか確認します。
-
Oracle Exadata System Softwareリリース11.2.1.2.3以前のデータベース・サーバーは、バージョン履歴情報を保持していません。リリース番号を確認するには、Oracle Exadata Storage Serverにログインし、次のコマンドを実行します。
imageinfo -ver
コマンドにより
computeImageMaker
ファイルで使用されるリリースと異なるリリースが表示された場合は、Oracle Exadata System SoftwareパッチがOracle Exadata Database Machineに適用されています。交換用のOracle Exadata Database Serverに適用する必要があります。 -
Oracle Exadata System Softwareリリース11.2.1.2.3以降では、
imagehistory
コマンドがOracle Exadata Database Serverにあります。交換用のOracle Exadata Database Serverの情報を、動作しているOracle Exadata Database Serverの情報と比較します。動作しているデータベースのリリースが新しい場合、Oracle Exadata Storage Serverパッチ・バンドルを交換用のOracle Exadata Storage Serverに適用します。
2.12.8 交換データベース・サーバーへのOracle Grid Infrastructureのクローニング
この手順では、交換データベース・サーバーにOracle Grid Infrastructureをクローニングする方法について説明します。
次のコマンドのworking_serverは動作しているデータベース・サーバー、replacement_serverは交換データベース・サーバーです。この手順中のコマンドは、動作しているデータベース・サーバーからグリッド・ホーム所有者として実行します。コマンドの実行にroot
ユーザーが必要な場合はコールアウトされます。
2.13 データベース・サーバーの既存のエラスティック構成の変更
エラスティック構成により、Oracle Exadataのサーバー構成に柔軟性と効率性が提供されます。
- クラスタへの新しいデータベース・サーバーの追加
新しいデータベース・サーバーは、Oracle Exadataで実行されている既存のOracle Real Application Clusters (Oracle RAC)クラスタに追加できます。 - 別のクラスタへの既存データベース・サーバーの移動
既存のデータベース・サーバーを再利用し、同じOracle Exadataラック内の別のクラスタに移動できます。 - Oracle RACクラスタからのデータベース・サーバーの削除
Oracle Real Application Clusters (Oracle RAC)クラスタのメンバーであるデータベース・サーバーを削除できます。
関連トピック
親トピック: Exadataデータベース・サーバーの保守
2.13.1 クラスタへの新しいデータベース・サーバーの追加
新しいデータベース・サーバーは、Oracle Exadataで実行されている既存のOracle Real Application Clusters (Oracle RAC)クラスタに追加できます。
親トピック: データベース・サーバーの既存のエラスティック構成の変更
2.13.3 Oracle RACクラスタからのデータベース・サーバーの削除
Oracle Real Application Clusters (Oracle RAC)クラスタのメンバーであるデータベース・サーバーを削除できます。
親トピック: データベース・サーバーの既存のエラスティック構成の変更
2.14 Quorumディスクの管理
- Quorumディスクの使用
ExadataはQuorumディスクを使用して、小規模なExadataシステム上の重要なOracle ASMメタデータおよびクラスタウェア投票ファイルに対し冗長性と高可用性を提供します。 - Oracle Exadataの新しいデプロイメントでのQuorumディスクの作成
- Quorumディスク管理の概要
Quorumディスク管理ユーティリティを使用して、Exadataデータベース・サーバーでQuorumディスクを作成および管理できます。 - Quorumディスク管理のソフトウェア要件
Quorumディスク管理ユーティリティを使用するには、ソフトウェアの最小要件を満たしている必要があります。 - quorumdiskmgrリファレンス
- データベース・サーバーのリストア後のquorumディスクの再構成
データベース・サーバーのリストア後、quorumディスクがリストアされなかったことがlvdisplay
で示されます。
親トピック: Exadataデータベース・サーバーの保守
2.14.1 Quorumディスクの使用
ExadataはQuorumディスクを使用して、小規模なExadataシステム上の重要なOracle ASMメタデータおよびクラスタウェア投票ファイルに対し冗長性と高可用性を提供します。
Oracle Automatic Storage Management (Oracle ASM)では、重要なメタデータがパートナ・ステータス表(PST)と呼ばれる内部構造内に保持されます。PSTには、各ディスク・グループ内のディスクに関するステータス情報(ディスク番号、ステータス(オンラインまたはオフライン)、パートナ・ディスク番号、障害グループ情報、ハートビート情報など)が格納されています。高可用性を確保するために、PSTのコピーが複数保持されます。
また、Oracle Clusterwareは投票ファイル(投票ディスクとも呼ばれる)を使用して、クラスタ・メンバーシップに関する情報を管理します。PSTと同様に、高可用性を確保するために複数の投票ファイルのコピーが保持されます。
障害グループはOracle ASMディスク・グループ内のディスクのサブセットです。これらのディスクはハードウェアを共有するため、同時に障害が発生する可能性があります。Exadataでは、各ストレージ・サーバーのストレージは自動的に個別の障害グループとして処理されます。
同時二重ストレージ障害を許容できるようにするには、PSTおよびクラスタウェアの投票ファイルの格納に5つ以上の障害グループを使用することをお薦めしています。単一障害を許容できるようにするには、3つ以上の障害グループを使用することをお薦めしています。これらの推奨事項に従い、高い冗長性のディスク・グループのみで構成されるExadataシステムでは5つ以上の障害グループが必要になります。この構成により、システム全体が同時二重ストレージ障害を許容できるようになります。標準冗長性のASMディスク・グループを使用するExadataシステムでは単一障害のみを許容できます。そのため、このようなシステムでは、PSTおよびクラスタウェアの投票ファイルに3つ以上の障害グループが必要です。
定数障害グループは、ユーザー・データを格納していない特殊な障害グループです。Quorum障害グループには1つのQuorumディスクのみが含まれ、ここにPSTおよびクラスタウェアの投票ファイルのコピーが格納されます。Quorum障害グループ(およびQuorumディスク)が必要になるのは、Exadataシステムに十分な数のストレージ・サーバーがなく、障害グループの最低必要数を提供できない場合のみです。Quorum障害グループ(およびQuorumディスク)の一般的な要件は、高い冗長性のASMディスク・グループと5台未満のExadataストレージ・サーバーを持つExadataシステム上です。
Quorum障害グループ(およびQuorumディスク)は、Exadataデプロイメント・プロセスの一部としてOracle Exadata Deployment Assistant (OEDA)で作成することも、Quorumディスク管理ユーティリティを使用して後で作成および管理することもできます。
QuorumディスクはiSCSIデバイスを使用してExadataデータベース・サーバーに実装されます。iSCSI Quorumディスクの実装では、Exadata RDMAネットワーク・ファブリックの使用による高パフォーマンスと高可用性を活用します。次の図に示すように、Quorumディスクはマルチパス・デバイスを利用します。各パスはデータベース・ノード上の各RDMAネットワーク・ファブリック・ポート用個別iSCSIデバイス(1つはib0
またはre0
用で、もう一方はib1
またはre1
用)に対応しています。
図2-1 アクティブ-アクティブ・システムにおいて、両方のiSCSIデバイスに接続するマルチパス・デバイス
「図2-1 アクティブ-アクティブ・システムにおいて、両方のiSCSIデバイスに接続するマルチパス・デバイス」の説明
Quorumディスクはベア・メタルExadata実装で使用することも、仮想マシン(VM)クラスタと組み合せて使用することもできます。VMクラスタを持つシステムでは、次の図に示すように、Quorumディスク・デバイスはVMゲスト内に存在します。
ノート:
pkey対応の環境では、ターゲットの検出に使用するインタフェースはOracle Clusterware通信に使用するpkeyインタフェースにする必要があります。これらのインタフェースは次のコマンドを使用すると表示されます。
Grid_home/bin/oifcfg getif | grep cluster_interconnect | awk '{print $1}'
2.14.2 Oracle Exadataの新しいデプロイメントでのQuorumディスクの作成
Oracle Exadata Deployment Assistant (OEDA)は、指定したシステム構成で必要とされるQuorumディスクを自動的に作成します。
たとえば、システムに2つのExadataデータベース・サーバーと3つのストレージ・サーバーが含まれ、高い冗長性ASMディスク・グループのみを含むベア・メタル構成をデプロイする場合、OEDAは両方のデータベース・サーバーにQuorumディスクを自動的に作成します。
親トピック: Quorumディスクの管理
2.14.3 Quorumディスク管理の概要
Quorumディスク管理ユーティリティを使用して、Exadataデータベース・サーバーでQuorumディスクを作成および管理できます。
Quorumディスク管理ユーティリティ(quorumdiskmgr
)では、iSCSI構成、iSCSIターゲット、iSCSI LUN、iSCSIデバイスなど、quorumディスクの実装に必要なすべてのコンポーネントを作成および管理できます。
関連トピック
親トピック: Quorumディスクの管理
2.14.4 Quorumディスク管理のソフトウェア要件
Quorumディスク管理ユーティリティを使用するには、ソフトウェアの最小要件を満たす必要があります。
この機能を使用するには、次のリリースが必要です。
-
Oracle Exadata System Softwareリリース12.1.2.3.0以降
-
すべてのOracle Databaseに対するパッチ23200778の適用
-
Oracle Grid Infrastructureリリース12.1.0.2.160119 (パッチ22722476と22682752を適用)またはOracle Grid Infrastructureリリース12.1.0.2.160419以降
新規デプロイメントの場合は、Oracle Exadata Deployment Assistant (OEDA)によりパッチが自動的にインストールされます。
親トピック: Quorumディスクの管理
2.14.5 quorumdiskmgrリファレンス
quorumディスク管理ユーティリティ(quorumdiskmgr
)を各データベース・サーバーで実行すると、iSCSI quorumディスクをデータベース・サーバー上に作成できます。quorumdiskmgr
を使用して、iSCSI quorumディスクをデータベース・サーバーで作成、リスト、変更および削除できます。出荷時に、ユーティリティはデータベース・サーバーにインストールされます。
- Quorumディスク管理ユーティリティの構文
- quorumdiskmgrオブジェクト
- quorumディスク構成の作成(--create --config)
--create --config
アクションでは、quorumディスク構成を作成します。 - ターゲットの作成(--create --target)
--create --target
アクションでは、指定したOracle ASMディスク・グループに追加するデバイスの作成に使用されるターゲットを作成します。 - デバイスの作成(--create --device)
--create --device
アクションでは、指定したIPアドレスのリストにあるRDMAネットワーク・ファブリックIPアドレスでターゲットを検出してターゲットにログインすることでデバイスを作成します。 - quorumディスク構成のリスト(--list --config)
--list --config
アクションでは、quorumディスクの構成をリスト表示します。 - ターゲットのリスト(--list --target)
--list --target
アクションでは、ターゲットの属性をリスト表示します。 - デバイスのリスト(--list --device)
--list --device
アクションでは、デバイスの属性(デバイスのパス、サイズ、ホスト名、ASMディスク・グループ名など)をリスト表示します。 - 構成の削除(--delete --config)
--delete --config
アクションでは、quorumディスクの構成を削除します。 - ターゲットの削除(--delete --target)
--delete --target
アクションでは、データベース・サーバー上のquorumディスク用に作成したターゲットを削除します。 - デバイスの削除(--delete --device)
--delete --device
コマンドでは、quorumディスク・デバイスを削除します。 - 所有者およびグループの値の変更(--alter --config)
--alter --config
アクションでは、所有者とグループの構成を変更します。 - RDMAネットワーク・ファブリックIPアドレスの変更(--alter --target)
--alter --target
コマンドでは、指定したOracle ASMディスク・グループ用に作成したローカル・ターゲットにアクセスできるデータベース・サーバーのRDMAネットワーク・ファブリックIPアドレスを変更します。
親トピック: Quorumディスクの管理
2.14.5.1 Quorumディスク管理ユーティリティの構文
quorumディスク管理ユーティリティは、コマンドライン・ツールです。構文は次のとおりです。
quorumdiskmgr --verb --object [--options]
verb
は、オブジェクト上で実行されるアクションです。これは、alter
、create
、delete
、list
のいずれかです。
object
は、コマンドでアクションを実行するオブジェクトです。
options
は、コマンドの追加パラメータを使用できるようにコマンドの組合せの使用範囲を拡大します。
quorumdiskmgrユーティリティを使用する場合は、次のルールが適用されます:
-
動詞、オブジェクトおよびオプションは、明示的に指定されている場合を除き、大/小文字が区別されます。
-
二重引用符文字を使用して、オプションの値をスペースおよび句読点を含めて囲みます。
親トピック: quorumdiskmgrリファレンス
2.14.5.2 quorumdiskmgrオブジェクト
オブジェクト | 説明 |
---|---|
|
quorumディスク構成には、iSCSI quorumディスクを追加するASMインスタンスの所有者およびグループ、およびローカルおよびリモートiSCSI quorumディスクの発見で使用するネットワーク・インタフェースのリストが含まれます。 |
|
ターゲットは、各データベース・サーバー上のエンドポイントで、iSCSIイニシエータがセッションを確立するまで待機し、必要なIOデータ転送を提供します。 |
|
デバイスは、iSCSIデバイスで、ローカルまたはリモート・ターゲットへのログインで作成されます。 |
親トピック: quorumdiskmgrリファレンス
2.14.5.3 Quorumディスク構成の作成(--create --config)
--create --config
アクションは、quorumディスク構成を作成します。
構成は、ターゲットまたはデバイスが作成される前に作成する必要があります。
構文
quorumdiskmgr --create --config [--owner owner --group group]
--network-iface-list network-iface-list
パラメータ
次の表に、--create --config
アクションのパラメータを示します。
パラメータ | 説明 |
---|---|
|
iSCSI quorumディスクを追加するOracle ASMインスタンスの所有者を指定します。これはオプションのパラメータです。デフォルト値は、 |
|
iSCSI quorumディスクを追加するOracle ASMインスタンスのグループを指定します。これはオプションのパラメータです。デフォルト値は |
|
ローカルおよびリモートのターゲットの検出に使用されるRDMAネットワーク・ファブリック・インタフェース名のリストを指定します。 |
例2-5 InfiniBandネットワーク・ファブリックによるシステム用のquorumディスク構成の作成
quorumdiskmgr --create --config --owner=oracle --group=dba --network-iface-list="ib0, ib1"
例2-6 RoCEネットワーク・ファブリックによるシステム用のquorumディスク構成の作成
quorumdiskmgr --create --config --owner=oracle --group=dba --network-iface-list="re0, re1"
親トピック: quorumdiskmgrリファレンス
2.14.5.4 ターゲットの作成(--create --target)
--create --target
アクションでは、指定したOracle ASMディスク・グループに追加するデバイスの作成に使用されるターゲットを作成します。
--create --target
アクションでは、指定したIPアドレスのリストにあるRDMAネットワーク・ファブリックIPアドレスで、データベース・サーバーがアクセスできるターゲットを作成します。
ターゲットの作成後に、asm-disk-group
属性、host-name
属性およびsize
属性を変更することはできません。
構文
quorumdiskmgr --create --target --asm-disk-group asm_disk_group --visible-to ip_list
[--host-name host_name] [--size size]
パラメータ
パラメータ | 説明 |
---|---|
|
ターゲットから作成したデバイスを追加するOracle ASMディスク・グループを指定します。 |
|
RDMAネットワーク・ファブリックIPアドレスのリストを指定します。このリストに登録されているRDMAネットワーク・ファブリックIPアドレスのデータベース・サーバーは、ターゲットにアクセスできます。 |
|
これはオプションのパラメータです。デフォルト値は、 |
|
ターゲットのサイズを指定します。これはオプションのパラメータです。デフォルト値は128MBです。 |
例2-7 Oracle ASMディスク・グループ・デバイス用のターゲットの作成
この例では、DATAC1
ディスク・グループに追加するデバイス用のターゲットを作成する方法を示しています。そのターゲットは、RDMAネットワーク・ファブリックIPアドレスが192.168.10.45または192.168.10.46のデータベース・サーバーからのみ認識可能になります。
quorumdiskmgr --create --target --asm-disk-group=datac1 --visible-to="192.168.10.45, 192.168.10.46"
--host-name=db01
親トピック: quorumdiskmgrリファレンス
2.14.5.5 デバイスの作成(--create --device)
--create --device
アクションでは、指定したIPアドレスのリストにあるRDMAネットワーク・ファブリックIPアドレスでターゲットを検出してターゲットにログインすることでデバイスを作成します。
作成されたデバイスは、Oracle ASMインスタンスにより、構成の作成中に指定した所有者およびグループで自動的に検出されます。
構文
quorumdiskmgr --create --device --target-ip-list target_ip_list
パラメータ
-
--target-ip-list
: RDMAネットワーク・ファブリックIPアドレスのリストを指定します。quorumdiskmgr
は、このリスト内にあるIPアドレスを持つデータベース・サーバー上のターゲットを検出して、そのターゲットにログインしてデバイスを作成します。
例
例2-8 ターゲットからのOracle ASMディスク・グループ用のデバイスの作成
この例では、IPアドレスが192.168.10.45または192.168.10.46のデータベース・サーバー上のターゲットを使用して、デバイスを作成する方法を示しています。
quorumdiskmgr --create --device --target-ip-list="192.168.10.45, 192.168.10.46"
親トピック: quorumdiskmgrリファレンス
2.14.5.6 Quorumディスク構成のリスト(--list --config)
--list --config
アクションは、quorumディスク構成をリストします。
構文
quorumdiskmgr --list --config
出力例
例2-9 InfiniBandネットワーク・ファブリックによるラック上のquorumディスク構成のリスト
$ quorumdiskmgr --list --config
Owner: grid
Group: dba
ifaces: exadata_ib1 exadata_ib0
例2-10 RoCEネットワーク・ファブリックによるラック上のquorumディスク構成のリスト
$ quorumdiskmgr --list --config
Owner: grid
Group: dba
ifaces: exadata_re1 exadata_re0
親トピック: quorumdiskmgrリファレンス
2.14.5.7 ターゲットのリスト(--list --target)
--list --target
アクションでは、ターゲットの属性をリスト表示します。
リスト表示されるターゲットの属性には、ターゲット名、サイズ、ホスト名、Oracle ASMディスク・グループ名、ターゲットにアクセスできるデータベース・サーバーを示すIPアドレスのリスト(visible-to
IPアドレス・リスト)、ターゲットにログインしているデータベース・サーバーを示すIPアドレスのリスト(discovered-by
IPアドレス・リスト)などが含まれます。
Oracle ASMディスク・グループ名を指定した場合、このアクションでは、指定したOracle ASMディスク・グループ用に作成されたすべてのローカル・ターゲットをリスト表示します。それ以外の場合、アクションは、quorumディスクに作成されたすべてのローカル・ターゲットをリストします。
構文
quorumdiskmgr --list --target [--asm-disk-group asm_disk_group]
パラメータ
--asm-disk-group
: Oracle ASMディスク・グループを指定します。quorumdiskmgr
では、このOracle ASMのすべてのローカル・ターゲットが表示されます。asm-disk-group
の値は、大/小文字が区別されません。
例2-11 特定のOracle ASMディスク・グループのターゲット属性のリスト表示
この例では、DATAC1
ディスク・グループのターゲットの属性をリスト表示する方法を示しています。
quorumdiskmgr --list --target --asm-disk-group=datac1
Name: iqn.2015-05.com.oracle:qd--datac1_db01
Size: 128 MB
Host name: DB01
ASM disk group name: DATAC1
Visible to: iqn.1988-12.com.oracle:192.168.10.23, iqn.1988-12.com.oracle:192.168.10.24,
iqn.1988-12.com.oracle:1b48248af770, iqn.1988-12.com.oracle:7a4a399566
Discovered by: 192.168.10.47, 192.168.10.46
ノート:
Oracle Exadata System Software 19.1.0より以前のリリースを使用してインストールしたシステムの場合、Name
はiqn.2015-05.com.oracle:QD_DATAC1_DB01
と表示されることがあります。また、Visible to
フィールドには名前ではなくIPアドレスが表示されます。
親トピック: quorumdiskmgrリファレンス
2.14.5.8 デバイスのリスト(--list --device)
--list --device
アクションは、デバイス・パス、サイズ、ホスト名およびASMディスク・グループを含むデバイスの属性をリストします。
-
Oracle ASMディスク・グループ名のみを指定した場合、この出力にはOracle ASMディスク・グループに追加されているすべてのデバイスが含まれます。
-
ホススト名のみを指定した場合、この出力にはホスト上のターゲットから作成されたすべてのデバイスが含まれます。
-
Oracle ASMディスク・グループ名とホスト名の両方を指定した場合、この出力にはOracle ASMディスク・グループに追加されているホスト上のターゲットから作成された単一のデバイスが含まれます。
-
Oracle ASMディスク・グループ名とホスト名のどちらも指定しないと、この出力にはすべてのquorumディスク・デバイスが含まれます。
構文
quorumdiskmgr --list --device [--asm-disk-group asm_disk_group] [--host-name host_name]
パラメータ
パラメータ | 説明 |
---|---|
|
デバイスが追加されているOracle ASMディスク・グループを指定します。 |
|
ターゲット・デバイスが作成されたデータベース・サーバーのホスト名を指定します。 |
例2-12 Oracle ASMディスク・グループのデバイス属性のリスト表示
この例では、DATAC1
ディスク・グループで使用されているデバイスの属性をリスト表示する方法を示します。
$ quorumdiskmgr --list --device --asm-disk-group datac1
Device path: /dev/exadata_quorum/QD_DATAC1_DB01
Size: 128 MB
Host name: DB01
ASM disk group name: DATAC1
Device path: /dev/exadata_quorum/QD_DATAC1_DB02
Size: 128 MB
Host name: DB02
ASM disk group name: DATAC1
親トピック: quorumdiskmgrリファレンス
2.14.5.9 構成の削除(--delete --config)
--delete --config
アクションは、quorumディスク構成を削除します。
構成は、ターゲットまたはデバイスが存在しない場合にのみ削除できます。
構文
quorumdiskmgr --delete --config
親トピック: quorumdiskmgrリファレンス
2.14.5.10 ターゲットの削除(--delete --target)
--delete --target
アクションは、データベース・サーバー上のquorumディスクに作成されたターゲットを削除します。
Oracle ASMディスク・グループ名を指定した場合、このコマンドでは、指定したOracle ASMディスク・グループ用に作成されたすべてのローカル・ターゲットを削除します。それ以外の場合、このコマンドでは、quorumディスク用に作成されたすべてのローカル・ターゲットを削除します。
構文
quorumdiskmgr --delete --target [--asm-disk-group asm_disk_group]
パラメータ
-
--asm-disk-group
: Oracle ASMディスク・グループを指定します。このディスク・グループに作成されたローカル・ターゲットが削除されます。asm-disk-group
の値は、大/小文字が区別されません。
例2-13 Oracle ASMディスク・グループ用に作成したターゲットの削除
この例では、DATAC1
ディスク・グループ用に作成したターゲットを削除する方法を示します。
quorumdiskmgr --delete --target --asm-disk-group=datac1
親トピック: quorumdiskmgrリファレンス
2.14.5.11 デバイスの削除(--delete --device)
--delete --device
コマンドは、quorumディスク・デバイスを削除します。
-
Oracle ASMディスク・グループ名のみを指定した場合、このコマンドではOracle ASMディスク・グループに追加されているすべてのデバイスを削除します。
-
ホスト名のみを指定した場合、このコマンドではホスト上のターゲットから作成したすべてのデバイスを削除します。
-
Oracle ASMディスク・グループ名とホスト名の両方を指定した場合、このコマンドでは、Oracle ASMディスク・グループに追加されているホスト上のターゲットから作成された単一のデバイスを削除します。
-
Oracle ASMディスク・グループ名とホスト名のどちらも指定しない場合、このコマンドではすべてのquorumディスク・デバイスを削除します。
構文
quorumdiskmgr --delete --device [--asm-disk-group asm_disk_group] [--host-name host_name]
パラメータ
パラメータ | 説明 |
---|---|
|
削除するデバイスが含まれているOracle ASMディスク・グループを指定します。 |
|
データベース・サーバーのホスト名を指定します。このホスト上のターゲットから作成されたデバイスが削除されます。 |
例2-14 特定のホスト上のターゲットから作成したquorumディスク・デバイスの削除
この例では、ホストDB01
上のターゲットから作成したすべてのquorumディスク・デバイスを削除する方法を示します。
quorumdiskmgr --delete --device --host-name=db01
親トピック: quorumdiskmgrリファレンス
2.14.5.12 所有者とグループ値の変更(--alter --config)
--alter --config
アクションは、所有者およびグループ構成を変更します。
構文
quorumdiskmgr --alter --config --owner owner --group group
パラメータ
パラメータ | 説明 |
---|---|
|
quorumディスク構成の新しい所有者を指定します。このパラメータは省略可能です。指定しない場合、所有者は変更されません。 |
|
quorumディスク構成の新しいグループを指定します。このパラメータは省略可能です。指定しない場合、グループは変更されません。 |
例2-15 quorumディスク・デバイスの所有者およびグループ構成の変更
この例では、quorumディスク・デバイスに割り当てられた所有者とグループを変更する方法を示しています。
quorumdiskmgr --alter --config --owner=grid --group=dba
親トピック: quorumdiskmgrリファレンス
2.14.5.13 RDMAネットワーク・ファブリックIPアドレスの変更(--alter --target)
--alter --target
コマンドでは、指定したOracle ASMディスク・グループ用に作成されたローカル・ターゲットにアクセスできるデータベース・サーバーのRDMAネットワーク・ファブリックIPアドレスを変更します。
構文
quorumdiskmgr --alter --target --asm-disk-group asm_disk_group --visible-to ip_list
パラメータ
パラメータ | 説明 |
---|---|
|
ターゲットから作成したデバイスを追加するOracle ASMディスク・グループを指定します。 |
|
RDMAネットワーク・ファブリックIPアドレスのリストを指定します。このリストに登録されているRDMAネットワーク・ファブリックIPアドレスのデータベース・サーバーは、ターゲットにアクセスできます。 |
例2-16 ターゲットにアクセスするRDMAネットワーク・ファブリックIPアドレスの変更
この例では、DATAC1
ディスク・グループ用に作成されたローカル・ターゲットにアクセスできるデータベース・サーバーを判別する、RDMAネットワーク・ファブリックIPアドレスのリストを変更する方法を示します。
quorumdiskmgr --alter --target --asm-disk-group=datac1 --visible-to="192.168.10.45, 192.168.10.47
親トピック: quorumdiskmgrリファレンス
2.14.6 データベース・サーバーのリストア後のquorumディスクの再構成
データベース・サーバーのリストア後、quorumディスクがリストアされなかったことがlvdisplay
で示されます。
Exadataイメージ・レスキュー・モードでデータベース・サーバーをリストアすると、カスタム・パーティション(quorumディスクを含む)を除いて、ディスクおよびファイル・システムのレイアウトがリストアされます。これらのファイルは、バックアップからリストアした後に再作成する必要があります。
quorumディスク用に作成された論理ボリュームは/dev/VGExaDb
にあり、名前にLVDbVd*
という接頭辞が付けられています。
親トピック: Quorumディスクの管理
2.15 vmetricsの使用
vmetricsパッケージを使用すると、vmetricsサービスで収集されたシステム統計を表示できます。
- vmetricsパッケージについて
vmetricsサービスは、Oracle VMドメインのSAP監視に必要な統計を収集します。 - vmetricsサービスのインストールと起動
- vmetricsパッケージ内のファイル
- 統計の表示
- vmetricsへのメトリックの追加
親トピック: Exadataデータベース・サーバーの保守
2.15.1 vmetricsパッケージについて
vmetricsサービスは、Oracle VMドメインのSAP監視に必要な統計を収集します。
システム統計には、管理ドメイン(dom0)またはユーザー・ドメイン(domU)からアクセスできます。vmetricsサービスは管理ドメイン上で稼働し、統計を収集してxenstoreにプッシュします。これにより、ユーザー・ドメインで統計にアクセスできるようになります。
vmetricsサービスによって収集されたシステム統計を、サンプル値を使用して次に表示します:
com.sap.host.host.VirtualizationVendor=Oracle Corporation;
com.sap.host.host.VirtProductInfo=Oracle VM 3;
com.sap.host.host.PagedInMemory=0;
com.sap.host.host.PagedOutMemory=0;
com.sap.host.host.PageRates=0;
com.sap.vm.vm.uuid=2b80522b-060d-47ee-8209-2ab65778eb7e;
com.sap.host.host.HostName=sc10adm01.example.com;
com.sap.host.host.HostSystemInfo=sc10adm01;
com.sap.host.host.NumberOfPhysicalCPUs=24;
com.sap.host.host.NumCPUs=4;
com.sap.host.host.TotalPhyMem=98295;
com.sap.host.host.UsedVirtualMemory=2577;
com.sap.host.host.MemoryAllocatedToVirtualServers=2577;
com.sap.host.host.FreeVirtualMemory=29788;
com.sap.host.host.FreePhysicalMemory=5212;
com.sap.host.host.TotalCPUTime=242507.220000;
com.sap.host.host.Time=1453150151;
com.sap.vm.vm.PhysicalMemoryAllocatedToVirtualSystem=8192;
com.sap.vm.vm.ResourceMemoryLimit=8192;
com.sap.vm.vm.TotalCPUTime=10160.1831404;
com.sap.vm.vm.ResourceProcessorLimit=4;
親トピック: vmetricsの使用
2.15.2 vmetricsサービスのインストールと起動
vmetricsサービスをインストールするには、dom0上でrootユーザーとしてinstall.sh
スクリプトを実行します:
[root@scac10adm01]# cd /opt/oracle.SupportTools/vmetrics [root@scac10adm01]# ./install.sh
install.sh
スクリプトは、それがdom0で実行中であり、現在実行中のvmetricsサービスを停止、パッケージ・ファイルを/opt/oracle.vmetrics
にコピーおよびvmetrics.svc
を/etc/init.d
にコピーすることを、確認します。
vmetricsサービスをdom0で開始するには、dom0上でrootユーザーとして次のコマンドを実行します:
[root@scac10adm01 vmetrics]# service vmetrics.svc start
統計を収集するコマンドは、30秒ごとに実行されます。
親トピック: vmetricsの使用
2.15.3 vmetricsパッケージ内のファイル
vmetricsパッケージには次のファイルが含まれます:
ファイル | 説明 |
---|---|
|
このファイルは、パッケージをインストールします。 |
|
このスクリプトは、統計をxenstoreから読み取り、それらをXML形式で表示します。 |
|
このPythonスクリプトは、システム・コマンドを実行し、それらをxenstoreにアップロードします。システム・コマンドは、 |
|
このXMLファイルは、dom0がxenstoreへプッシュするべきメトリックおよび各メトリックで実行するシステム・コマンドを指定します。 |
|
vmetricsをLinuxサービスにする |
親トピック: vmetricsの使用
2.15.4 統計の表示
統計がxenstoreにプッシュされた後、次のいずれかのコマンドを実行すると、dom0およびdomU上に統計を表示できます:
ノート:
domU's上に、xenstoreprovider
およびovmd
パッケージがインストールされていることを確認してください。
xenstoreprovider
は、ovmapiカーネル・インフラストラクチャと通信するライブラリです。
ovmd
は、構成および再構成イベントを処理し、VMとOracle VMマネージャの間でメッセージを送信/受信するメカニズムを提供するデーモンです。
次のコマンドを使用して、Oracle VM APIをサポートするためにOracle Linux 5および6で必要なパッケージをインストールします。
# yum install ovmd xenstoreprovider
-
/usr/sbin/ovmd -g vmhost
コマンドは、1つのライン上の統計を表示します。sed
コマンドは、ラインを複数のラインに分割し、ラインごとに統計します。このコマンドは、rootユーザーとして実行する必要があります。root@scac10db01vm04 ~]# /usr/sbin/ovmd -g vmhost |sed 's/; */;\n/g;s/:"/:"\n/g' com.sap.host.host.VirtualizationVendor=Oracle Corporation; com.sap.host.host.VirtProductInfo=Oracle VM 3; com.sap.host.host.PagedInMemory=0; com.sap.host.host.PagedOutMemory=0; com.sap.host.host.PageRates=0; com.sap.vm.vm.uuid=2b80522b-060d-47ee-8209-2ab65778eb7e; com.sap.host.host.HostName=scac10adm01.example.com; com.sap.host.host.HostSystemInfo=scac10adm01; com.sap.host.host.NumberOfPhysicalCPUs=24; com.sap.host.host.NumCPUs=4; ...
-
vm-dump-metrics
コマンドは、XML形式でメトリックを表示します。[root@scac10db01vm04 ~]# ./vm-dump-metrics <metrics> <metric type='real64' context='host'> <name>TotalCPUTime</name> <value>242773.600000</value> </metric> <metric type='uint64' context='host'> <name>PagedOutMemory</name> <value>0</value> </metric> ...
vm-dump-metrics
コマンドを、コマンドを実行するdomU'sにコピーすることに注意してください。
親トピック: vmetricsの使用
2.16 FIPSモードの使用
Oracle Linux 7以降を実行するデータベース・サーバーでは、カーネルのFIPSモードでの実行を有効化できます。
Oracle Exadata System Softwareリリース20.1.0以降では、Oracle Linux 7以降を実行しているOracle Exadataデータベース・サーバーで、Federal Information Processing Standards (FIPS)互換性モードを有効化および無効化できます。
FIPSモードを有効化または無効化した後、アクションを有効化するには、サーバーを再起動する必要があります。
FIPSモードに関するステータス情報を有効化、無効化および取得するには、fips-mode
オプションを指定した/opt/oracle.cellos/host_access_control
のユーティリティを使用します。
-
現行のFIPSモードの設定を表示するには、次のコマンドを実行します。
# /opt/oracle.cellos/host_access_control fips-mode --status
-
FIPSモードを有効化するには、次のコマンドを実行します。
# /opt/oracle.cellos/host_access_control fips-mode --enable
その後、アクションをファイナライズするためにサーバーを再起動します。
-
FIPSモードを無効化するには、次のコマンドを実行します。
# /opt/oracle.cellos/host_access_control fips-mode --disable
その後、アクションをファイナライズするためにサーバーを再起動します。
-
FIPSモードに関する情報を表示するには、次のコマンドを実行します。
# /opt/oracle.cellos/host_access_control fips-mode --info
次の例では、サーバーでFIPSモードを有効化および無効化するための一般的なコマンド順序とコマンド出力を示します。
# /opt/oracle.cellos/host_access_control fips-mode --status
[2020-04-14 09:19:45 -0700] [INFO] [IMG-SEC-1101] FIPS mode is disabled
# /opt/oracle.cellos/host_access_control fips-mode --enable
[2020-04-14 09:30:10 -0700] [INFO] [IMG-SEC-1107] Using only FIPS compliant
SSH host keys and sshd configuration updated in /etc/ssh/sshd_config
[2020-04-14 09:30:10 -0700] [INFO] [IMG-SEC-1103] FIPS mode is set to
enabled. A reboot is required to effect this change.
# /opt/oracle.cellos/host_access_control fips-mode --status
[2020-04-14 09:30:14 -0700] [INFO] [IMG-SEC-1101] FIPS mode is configured but
not activated. A reboot is required to activate.
# reboot
...
# /opt/oracle.cellos/host_access_control fips-mode --status
[2020-04-14 09:23:15 -0700] [INFO] [IMG-SEC-1103] FIPS mode is configured and
active
# /opt/oracle.cellos/host_access_control fips-mode --disable
[2020-04-14 09:40:37 -0700] [INFO] [IMG-SEC-1103] FIPS mode is set to
disabled. A reboot is required to effect this change.
# /opt/oracle.cellos/host_access_control fips-mode --status
[2020-04-14 09:40:37 -0700] [INFO] [IMG-SEC-1103] FIPS mode is disabled but
is active. A reboot is required to deactivate FIPS mode.
# reboot
...
# /opt/oracle.cellos/host_access_control fips-mode --status
[2020-04-14 09:46:22 -0700] [INFO] [IMG-SEC-1101] FIPS mode is disabled
親トピック: Exadataデータベース・サーバーの保守
2.17 Exadataデータベース・サーバーのLEDインジケータの説明
Oracle Exadataデータベース・サーバーのインジケータLEDは、システム・ステータスの確認と、保守が必要なコンポーネントの識別に役立ちます。
Oracle Exadataデータベース・サーバーの様々なインジケータLEDについては、使用しているシステムのサーバー・サービス・マニュアルのサーバーのフロント・パネルおよびバック・パネルのステータス・インジケータを使用したトラブルシューティングの項を参照してください。
サーバー・サービス・マニュアルのリストについては、関連ドキュメントを参照してください。
また、Oracle Exadataデータベース・サーバーでは、Do-Not-Service LEDはExadataソフトウェアによっては点灯しません。Do-Not-Service LEDは、Oracle Exadata X7-2以降のデータベースサーバーにのみ含まれています。
親トピック: Exadataデータベース・サーバーの保守
2.18 Exadataデータベース・サーバーのイメージ
Exadataデータベース・サーバーのモデルには、様々な外部レイアウトおよび物理的外観があります。
- Oracle Exadata X10Mデータベース・サーバーのイメージ
- Oracle Server X9-2データベース・サーバーのイメージ
Oracle Server X9-2は、Oracle Exadata X9M-2のデータベース・サーバーとして使用されます。 - Oracle Server X8-2データベース・サーバーのイメージ
Oracle Server X8-2は、Oracle Exadata X8M-2およびX8-2のデータベース・サーバーとして使用されます。 - Oracle Server X7-2 Oracle Database Serverのイメージ
- Oracle Server X6-2 Oracle Database Serverのイメージ
- Oracle Server X5-2 Oracle Database Serverのイメージ
- Sun Server X4-2 Oracle Database Serverのイメージ
- Sun Server X3-2 Oracle Database Serverのイメージ
- Sun Fire X4170 M2 Oracle Database Serverのイメージ
- Sun Fire X4170 Oracle Database Serverのイメージ
- Oracle Server X8-8データベース・サーバーのイメージ
Oracle Server X8-8は、Oracle Exadata X9M-8、X8M-8およびX8-8のデータベース・サーバーとして使用されます。 - Oracle Server X7-8 Oracle Database Serverのイメージ
- Oracle Server X5-8およびX6-8 Oracle Database Serverのイメージ
- Sun Server X4-8 Oracle Database Serverのイメージ
- Sun Server X2-8 Oracle Database Serverのイメージ
- Sun Fire X4800 Oracle Database Serverのイメージ
親トピック: Exadataデータベース・サーバーの保守
2.18.1 Oracle Exadata X10Mデータベース・サーバーのイメージ
次の図に、Oracle Exadata X10Mデータベース・サーバーの前面図を示します。
次の図に、Oracle Exadata X10Mデータベース・サーバーの背面図を示します。この図は、2つのデュアルポート・ネットワーク・インタフェース・カード(PCIスロット3よびスロット8)を搭載したサーバーを示しています。
親トピック: Exadataデータベース・サーバーのイメージ
2.18.2 Oracle Server X9-2 Database Serverのイメージ
Oracle Server X9-2は、Oracle Exadata X9M-2のデータベース・サーバーとして使用されます。
次の図に、Oracle Server X9-2 Database Serverの前面図を示します。
次の図に、Oracle Server X9-2の背面図を示します。この図は、2つのデュアルポート25 Gb/sネットワーク・インタフェース・カード(PCIスロット1およびスロット3)を搭載したサーバーを示しています。
親トピック: Exadataデータベース・サーバーのイメージ
2.18.3 Oracle Server X8-2 Database Serverのイメージ
Oracle Server X8-2は、Oracle Exadata X8M-2およびX8-2のデータベース・サーバーとして使用されます。
次のイメージに、Oracle Server X8-2 Database Serverの前面図を示します。
次の画像は、Oracle Serverの背面図を示しています。
親トピック: Exadataデータベース・サーバーのイメージ
2.18.4 Oracle Server X7-2 Oracle Database Serverのイメージ
次の図に、Oracle Server X7-2 Oracle Database Serverの前面図を示します。
図2-9 Oracle Server X7-2 Oracle Database Serverの前面図
「図2-9 Oracle Server X7-2 Oracle Database Serverの前面図」の説明
次の画像は、Oracle Serverの背面図を示しています。
親トピック: Exadataデータベース・サーバーのイメージ
2.18.5 Oracle Server X6-2 Oracle Database Serverのイメージ
次の図に、Oracle Server X6-2 Oracle Database Serverの前面図を示します。
図2-11 Oracle Server X6-2 Oracle Database Serverの前面図
「図2-11 Oracle Server X6-2 Oracle Database Serverの前面図」の説明
次の図に、Oracle Server X6-2 Oracle Database Serverの背面図を示します。
上位ハード・ディスク・ドライブは、左から右にHDD1、およびHDD3です。下位ドライブは、左から右にHDD0、およびHDD2です。
図2-12 Oracle Server X6-2 Oracle Database Serverの背面図
「図2-12 Oracle Server X6-2 Oracle Database Serverの背面図」の説明
親トピック: Exadataデータベース・サーバーのイメージ
2.18.6 Oracle Server X5-2 Oracle Database Serverのイメージ
次の図に、Oracle Server X5-2 Oracle Database Serverの前面図を示します。
図2-13 Oracle Server X5-2 Oracle Database Serverの前面図
「図2-13 Oracle Server X5-2 Oracle Database Serverの前面図」の説明
次の図に、Oracle Server X5-2 Oracle Database Serverの背面図を示します。
上位ハード・ディスク・ドライブは、左から右にHDD1、およびHDD3です。下位ドライブは、左から右にHDD0、およびHDD2です。
図2-14 Oracle Server X5-2 Oracle Database Serverの背面図
「図2-14 Oracle Server X5-2 Oracle Database Serverの背面図」の説明
親トピック: Exadataデータベース・サーバーのイメージ
2.18.7 Sun Server X4-2 Oracle Database Serverのイメージ
次の図に、Sun Server X4-2 Oracle Database Serverの前面図を示します。
図2-15 Sun Server X4-2 Oracle Database Serverの前面図
「図2-15 Sun Server X4-2 Oracle Database Serverの前面図」の説明
次の図に、Sun Server X4-2 Oracle Database Serverの背面図を示します。
図2-16 Sun Server X4-2 Oracle Database Serverの背面図
「図2-16 Sun Server X4-2 Oracle Database Serverの背面図」の説明
親トピック: Exadataデータベース・サーバーのイメージ
2.18.8 Sun Server X3-2 Oracle Database Serverのイメージ
次の図に、Sun Server X3-2 Oracle Database Serverの前面図を示します。
図2-17 Sun Server X3-2 Oracle Database Serverの前面図
「図2-17 Sun Server X3-2 Oracle Database Serverの前面図」の説明
次の図に、Sun Server X3-2 Oracle Database Serverの背面図を示します。
図2-18 Sun Server X3-2 Oracle Database Serverの背面図
「図2-18 Sun Server X3-2 Oracle Database Serverの背面図」の説明
親トピック: Exadataデータベース・サーバーのイメージ
2.18.9 Sun Fire X4170 M2 Oracle Database Serverのイメージ
次の図に、Sun Fire X4170 M2 Oracle Database Serverの前面図を示します。
図2-19 Sun Fire X4170 M2 Oracle Database Serverの前面図
「図2-19 Sun Fire X4170 M2 Oracle Database Serverの前面図」の説明
-
ハード・ディスク・ドライブ。上位ドライブは、左から右にHDD1、およびHDD3です。下位ドライブは、左から右にHDD0、およびHDD2です。
次の図に、Sun Fire X4170 M2 Oracle Database Serverの背面図を示します。
図2-20 Sun Fire X4170 M2 Oracle Database Serverの背面図
「図2-20 Sun Fire X4170 M2 Oracle Database Serverの背面図」の説明
-
InfiniBandホスト・チャネル・アダプタ
-
ギガビット・イーサネット・ポート
親トピック: Exadataデータベース・サーバーのイメージ
2.18.10 Sun Fire X4170 Oracle Database Serverのイメージ
次の図に、Sun Fire X4170 Oracle Database Serverの前面図を示します。
-
ハード・ディスク・ドライブ。上位ドライブは、左から右にHDD1、およびHDD3です。下位ドライブは、左から右にHDD0、およびHDD2です。
次の図に、Sun Fire X4170 Oracle Database Serverの背面図を示します。
-
RDMAネットワーク・ファブリック・ホスト・チャネル・アダプタ
-
ギガビット・イーサネット・ポート
親トピック: Exadataデータベース・サーバーのイメージ
2.18.11 Oracle Server X8-8 Database Serverのイメージ
Oracle Server X8-8は、Oracle Exadata X9M-8、X8M-8およびX8-8でデータベース・サーバーとして使用されます。
次の図に、Oracle Server X8-8 Database Serverの前面図を示します。
次の図に、Oracle Database Server X8-8の背面図を示します。
親トピック: Exadataデータベース・サーバーのイメージ
2.18.12 Oracle Server X7-8 Oracle Database Serverのイメージ
次の図に、Oracle Server X7-8 Oracle Database Serverの前面図を示します。
図2-25 Oracle Server X7-8 Oracle Database Serverの前面図
「図2-25 Oracle Server X7-8 Oracle Database Serverの前面図」の説明
次の図に、Oracle Server X7-8 Oracle Database Serverの背面図を示します。
図2-26 Oracle Server X7-8 Oracle Database Serverの背面図
「図2-26 Oracle Server X7-8 Oracle Database Serverの背面図」の説明
親トピック: Exadataデータベース・サーバーのイメージ
2.18.13 Oracle Server X5-8およびX6-8 Oracle Database Serverのイメージ
次の図に、Oracle Server X5-8 Oracle Database Serverの前面図を示します。
図2-27 Oracle Server X5-8 Oracle Database Serverの前面図
「図2-27 Oracle Server X5-8 Oracle Database Serverの前面図」の説明
次の図に、Oracle Server X5-8 Oracle Database Serverの背面図を示します。
図2-28 Oracle Server X5-8 Oracle Database Serverの背面図
「図2-28 Oracle Server X5-8 Oracle Database Serverの背面図」の説明
親トピック: Exadataデータベース・サーバーのイメージ
2.18.14 Sun Server X4-8 Oracle Database Serverのイメージ
次の図に、Sun Server X4-8 Oracle Database Serverの前面図を示します。
図2-29 Sun Server X4-8 Oracle Database Serverの前面図
「図2-29 Sun Server X4-8 Oracle Database Serverの前面図」の説明
次の図に、Sun Server X4-8 Oracle Database Serverの背面図を示します。
図2-30 Sun Server X4-8 Oracle Database Serverの背面図
「図2-30 Sun Server X4-8 Oracle Database Serverの背面図」の説明
親トピック: Exadataデータベース・サーバーのイメージ
2.18.15 Sun Server X2-8 Oracle Database Serverのイメージ
次の図に、Sun Server X2-8 Oracle Database Serverの前面図を示します。
図2-31 Sun Server X2-8 Oracle Database Serverの前面図
「図2-31 Sun Server X2-8 Oracle Database Serverの前面図」の説明
-
電源。
-
ハード・ディスク・ドライブ。上位ドライブは、左から右にXL4、XL5、XL6およびXL7です。下位ドライブは、左から右にXL0、XL1、XL2およびXL3です。
-
CPUモジュール。モジュールは、下から上にBL0、BL1、BL2およびBL3です。
次の図に、Sun Fire X4800 Oracle Database Serverの背面図を示します。
図2-32 Sun Server X2-8 Oracle Database Serverの背面図
「図2-32 Sun Server X2-8 Oracle Database Serverの背面図」の説明
-
ファン・モジュール。
-
Network Express Module。
-
InfiniBand EM(CX2)デュアルポートPCI Expressモジュール。
親トピック: Exadataデータベース・サーバーのイメージ
2.18.16 Sun Fire X4800 Oracle Database Serverのイメージ
次の図に、Sun Fire X4800 Oracle Database Serverの前面図を示します。
-
電源。
-
ハード・ディスク・ドライブ。上位ドライブは、左から右にXL4、XL5、XL6およびXL7です。下位ドライブは、左から右にXL0、XL1、XL2およびXL3です。
-
CPUモジュール。モジュールは、下から上にBL0、BL1、BL2およびBL3です。
次の図に、Sun Fire X4800 Oracle Database Serverの背面図を示します。
-
ファン・モジュール。
-
Network Express Module。
-
InfiniBand EM(CX2)デュアルポートPCI Expressモジュール。
親トピック: Exadataデータベース・サーバーのイメージ