プライマリ・コンテンツに移動
Oracle® Exadata Database Machineメンテナンス・ガイド
12c リリース2 (12.2)
E84907-03
目次へ移動
目次
索引へ移動
索引

前
次

3 Oracle ExadataラックのExadata Storage Serverの保守

この章のトピックは、次のとおりです:

注意:

  • 読みやすさを考慮して、Oracle Exadata Database MachineとOracle Exadata Storage拡張ラックの両方に言及する場合、「Oracle Exadataラック」という名前を使用します。

  • この章のすべての手順は、Oracle Exadata Database MachineおよびOracle Exadata Storage拡張ラックに適用されます。

3.1 Exadata Storage Serverの保守

この項では、Exadata Storage Serverの保守を実行する方法について説明します。次の項目が含まれます。

関連項目:

Oracle ASMディスク修復タイマーの詳細は、Oracle Exadata Storage Server Softwareユーザーズ・ガイドを参照してください。

3.1.1 Exadata Storage Serverのシャットダウン

Exadata Storage Serverの保守を実行する場合、セルの電源切断または再起動が必要になることがあります。1つ以上のデータベースの実行中にExadata Storage Serverを停止する場合、Exadata Storage ServerのオフラインによるOracle ASMディスク・グループおよびデータベース可用性への影響がないことを確認してください。データベース可用性に影響を与えないでExadata Storage Serverをオフラインにする機能は、影響するディスク・グループで使用されるOracle ASM冗長性のレベルおよびオフラインにするExadata Storage Serverのデータのミラー・コピーを含む他のExadata Storage Serverのディスクの現在のステータスによって異なります。

次の手順は、Exadata Storage Serverの電源の切断方法を示しています。

  1. (オプション)次のコマンドを実行して、セルの再起動後にグリッド・ディスクがオフラインのままになるようにします。
    CellCLI> ALTER GRIDDISK ALL INACTIVE
    

    この手順は、再起動を複数回実行したり、セルを再びアクティブにするタイミングを制御する場合(計画されていた保守アクティビティが成功したことを確認してからセルを使用する場合など)に役立ちます。

    注意:

    この手順を実行する場合は、手順6を実行してグリッド・ディスクをアクティブにする必要があります。

  2. 次のコマンドを使用して、セル・サービスを停止します。
    CellCLI> ALTER CELL SHUTDOWN SERVICES ALL
    

    前述のコマンドでは、オフラインのディスクがないか、predictive failureステータスのディスクがないか、またはミラーにコピーする必要があるディスクがないかをチェックします。Oracle ASM冗長性が損なわれていない場合は、コマンドによりOracle ASMでグリッド・ディスクがオフラインに変更され、セル・サービスが停止されます。次のエラーが表示された場合は、冗長性が原因でディスク・グループが強制的にディスマウントされ、セル・サービスを安全に停止できない可能性があります。

    Stopping the RS, CELLSRV, and MS services...
    The SHUTDOWN of ALL services was not successful.
    CELL-01548: Unable to shut down CELLSRV because disk group DATA, RECO may be
    forced to dismount due to reduced redundancy.
    Getting the state of CELLSRV services... running
    Getting the state of MS services... running
    Getting the state of RS services... running
    

    エラーが発生した場合は、Oracle ASMディスク・グループの冗長性をリストアし、すべてのディスクのディスク・ステータスが正常に戻ってからコマンドを再試行してください。

  3. セルを停止します。
  4. 保守の実行後、セルの電源を投入します。セル・サービスが自動的に開始されます。セルの起動の一環として、Oracle ASMですべてのグリッド・ディスクが自動的にONLINEになります。
  5. 次のコマンドを使用して、すべてのグリッド・ディスクが正常にオンラインになったことを確認します。
    CellCLI> LIST GRIDDISK ATTRIBUTES name, asmmodestatus
    

    すべてのグリッド・ディスクのasmmodestatusがONLINEまたはUNUSEDになるまで待機します。

  6. 次のコマンドを使用して、グリッド・ディスクをオンラインに設定します。この手順は、手順1を実行した場合にのみ必要です。手順1を実行していない場合は、グリッド・ディスクは自動的にアクティブになります。
    CellCLI> ALTER GRIDDISK ALL ACTIVE

3.1.2 Exadata Storage Serverの削除

次の手順は、Exadata Storage Serverの削除方法を示しています。

  1. Oracle ASMから次のコマンドを使用して、物理ディスクのOracle ASMディスクを削除します。
    SQL> ALTER DISKGROUP diskgroup_name DROP DISKS IN FAILGROUP failgroup_name;
    

    Oracle ASMの正しい冗長性レベルを確認するには、先に進む前にリバランスの完了を待機します。

  2. Exadata Storage Serverにアクセスする各データベース・サーバーのcellip.oraファイルからIPアドレス・エントリを削除します。
  3. 次のコマンドを使用して、Exadata Storage Serverから物理ディスクのグリッド・ディスク、セル・ディスクおよびセルを削除します。
    CellCLI> DROP CELLDISK
    
  4. Exadata Storage Server上のすべてのサービスをシャットダウンします。
  5. セルの電源を切断します。

3.1.3 リバランス操作のステータスのチェック

ディスクを削除または追加すると、Oracle ASMリバランスが発生します。リバランスのステータスを確認するには、次の手順を実行します。

  • リバランス操作が正しく実行された可能性がある場合。Oracle ASMアラート・ログを確認してください。

  • リバランス操作が現在実行されている可能性がある場合。GV$ASM_OPERATIONビューを確認して、リバランス操作が実行されているかどうか判別します。

  • リバランス操作が失敗した可能性がある場合。V$ASM_OPERATION.ERRORビューを確認して、リバランス操作が失敗したかどうか判別します。

  • 交換される物理ディスクに複数のディスク・グループのASMディスクが含まれる場合、複数のディスク・グループのリバランス操作を同じクラスタの異なるOracle ASMインスタンスで実行できます。Oracle ASMインスタンスは、一度に1つのリバランス操作を実行できます。すべてのOracle ASMインスタンスがビジー状態の場合、リバランス操作がキューに入れられます。

注意:

BP4のOracle Databaseリリース12.1.0.2と一緒にOracle Exadata Storage Server Softwareリリース12.1.2.0を実行しているストレージ・サーバーで、Oracle ASMはリバランス操作のステータスについて電子メールを送信します。以前のリリースでは、管理者が操作のステータスをチェックする必要がありました。

3.1.4 Exadataセルのパッチ適用の理解

ソフトウェアの更新は、patchmgrユーティリティを使用してExadata Storage Serverに適用されます。patchmgrユーティリティにより、Exadata Storage Serverに必要なすべてのソフトウェアとファームウェアがインストールおよび更新されます。patchmgrユーティリティは、My Oracle Supportからダウンロードするソフトウェア・リリースに付属しています。

注意:

Exadata Storage Serverのソフトウェアをインストール、変更、再構成または削除する場合は、このガイド、『Oracle Exadata Storage Server Softwareユーザーズ・ガイド』またはMy Oracle Supportに記載されているOracle Exadata固有の指示に必ず従ってください。Exadata Storage Serverに対する変更は、特定のOracle Exadataドキュメントに記載がないかぎりサポートされません。

注意:

My Oracle Supportノート888828.1に説明されているように、Oracle Exadata Cellの通常の更新が適用できるのは、ターゲット・リリースの日付スタンプが現在実行中のリリースの日付スタンプより新しい場合のみです。ターゲット・リリースよりも新しい日付スタンプのリリースを実行しているイメージからの更新はブロックされます。

例: Exadataリリース12.1.2.1.0は、リリース番号に基づいた12.1.1.1.2よりも新しく思えますが、12.1.1.1.2.1 (日付スタンプが150411)の日付スタンプは、12.1.2.1.0 (141206)よりも新しいため、12.1.1.1.2.150411から12.1.2.1.0.141206.1の更新はブロックされます。このような状況では、同じメジャー・リリースで日付スタンプが新しいメンテナンス・リリースに更新する必要があります。

patchmgrユーティリティによるソフトウェアの更新は、構成内のすべてのExadataセルが対象となります。ユーティリティでは、ソフトウェアの更新方法としてローリングと非ローリングの両方がサポートされています。ユーティリティでは、パッチ適用の完了通知やローリング/非ローリング・パッチ適用のステータス情報を電子メール・メッセージで送信できます。次に、電子メール・メッセージを送信するためのコマンドを示します。

# ./patchmgr -cells cell_group -patch [-rolling] [-ignore_alerts] [-unkey] \
           [-smtp_from "addr" -smtp_to "addr1 addr2 addr3 ..."]

前述のコマンドのaddrは送信元アドレス、addr1addr2およびaddr3は送信先アドレスです。

この項では、Exadataセルにパッチを適用する各方法およびそれらの違いについて説明します。この項では、次の項目について説明します。

3.1.4.1 ローリング更新の理解

ローリング更新は、デプロイメント全体での停止時間を伴わない方法としても知られます。

  • この方法の利点:

    データベースの停止時間が不要です。

    問題が発生した場合に影響を受けるのは1つのセルのみです。

  • この方法に関する考慮事項:

    非ローリング更新よりもはるかに時間がかかります。セルは一度に1つずつ順番に処理されます。パッチの適用に最低限かかる概算時間は、非ローリング更新で1つのセルにパッチを適用するのにかかる時間にセルの数をかけたものになります。非ローリング更新で1つのセルの更新にかかる時間は約1時間です。ローリング更新を実行した場合、所要時間が非常に長くなる可能性があり、デプロイメントの負荷も大きくなります。このような負荷条件が、パッチ適用後のセルでグリッド・ディスクをアクティブ化および再アクティブ化するのにかかる時間に加算されます。

    注意:

    patchmgrユーティリティを起動するときは、ソフトウェア更新通知をサブスクライブすることをお薦めします。管理者ユーザーは、ソフトウェア更新がいつ完了するかを確実に知らせる電子メール通知を自動的に受信します。これにより、管理者が手動でセルのリブートを早く行い、ソフトウェア更新プロセスを中断することがなくなります。

    Oracle ASMによりセルのグリッド・ディスクが削除されるのを回避するため、パッチ適用時にOracle ASMの修理タイムアウトを増やす必要があります。これらのグリッド・ディスクを再度追加することは、時間のかかる手動での作業になります。ディスク・グループのdisk_repair_timeは最低でもデフォルト値の3.6時間に設定するようにしてください。

注意:

  • patchmgrユーティリティで-rollingオプションを指定してローリング更新またはロールバックを実行する場合は、My Oracle Supportノート1485475.1に列挙されている修正を事前にOracle Database 11gデータベースに適用してください。修正が必要なデータベース・リリースは、ノートに明記されています。

次に、ローリング更新を使用してExadataセルにパッチを適用する手順を簡単に説明します。これらの手順は、patchmgrユーティリティにより自動的に実行されます。

  1. 1つのセル上の非アクティブ化対象のグリッド・ディスクをすべて非アクティブ化します。対象となるグリッド・ディスクのasmdeactivationoutcome属性がYesに設定されます。

  2. 非アクティブ化したディスクがOFFLINEであることを確認します。

  3. セルにパッチを適用します。

  4. セルを再起動し、正常に起動したら、非アクティブ化したグリッド・ディスクをアクティブ化します。

  5. Oracle ASMの再同期処理が完了するまで待機し、手順4でアクティブ化したグリッド・ディスクがONLINEになっていることを確認します。

  6. パッチの適用対象となる次のセルに移動し、同じ手順を繰り返します。

patchmgrユーティリティでは、前述の手順が一度に1つのセルに対して実行されます。

3.1.4.2 非ローリング更新の理解

非ローリング更新は、デプロイメント全体での停止時間を伴う方法としても知られます。デプロイメント全体で停止するよう選択した場合は、パッチはすべてのセルにパラレルに適用されます。patchmgrユーティリティによりExadataセルにこの機能が提供されます。

  • この方法の利点:

    すべてのセルがパラレルに処理されます。そのため、パッチの適用時間は、適用対象となるセルの数に関係なく、ほぼ一定です。

    グリッド・ディスクの非アクティブ化と再アクティブ化に費やす時間がゼロです。

  • この方法に関する考慮事項:

    パッチ適用プロセスの実行中はセルを使用できません。パッチの適用中は、セル・サービスを使用するすべてのデータベースを停止したままにする必要があります。

    パッチの適用中にセルの1つで問題が発生した場合は、そのセルの問題が解決するまでデプロイメント全体が使用できなくなります。通常、Oracle Clusterwareを排他モードで起動し、Oracle ASMのディスク・グループをFORCEオプションによってマウントし、その後で問題のあるセルのグリッド・ディスクを削除することによって、データベースを起動することは可能です。ただし、これらの手順を実行することによって、停止時間がさらに延びます。

3.1.5 診断ISOを使用したネットワーク接続の有効化

再起動されないセルにアクセスして手動で修理する場合、診断ISOが必要になることがあります。ISOは、すべてのExadataセルの/opt/oracle.SupportTools/diagnostics.isoにあります。USBの使用など、他のブート方法が機能しない場合は、診断ISOを使用してください。

次に、ファイルを転送してセルを修理できるように、診断ISOとのネットワーキングを有効にする手順を示します。

  1. Webインタフェースまたはシリアル・コンソールを使用して、サービス・プロセッサで1回のCD-ROMブートを有効にします。次に、シリアル・コンソールを使用する場合のコマンドの例を示します。
    set boot_device=cdrom
    
  2. サービス・プロセッサ・インタフェースを使用して、diagnostics.isoのローカル・コピーをCD-ROMとしてマウントします。
  3. rebootコマンドを使用して、セルを再起動します。
  4. rootユーザーとして診断ISOのパスワードを使用してセルにログインします。
  5. 次のコマンドを使用してpingを回避します。
    alias ping="ping -c"
    
  6. /etc/networkという名前のディレクトリを作成します。
  7. /etc/network/if-pre-up.dという名前のディレクトリを作成します。
  8. /etc/network/interfacesファイルに次の行を追加します。
    iface eth0 inet static
    address IP_address_of_cell
    netmask netmask_of_cell
    gateway gateway_IP_address_of_cell
    
  9. 次のコマンドを使用して、eth0インタフェースを起動します。
    ifup eth0
     

    いくつかの警告メッセージが表示される場合もありますが、インタフェースは稼働しています。

  10. FTPまたはwgetコマンドを使用して、セルを修理するためのファイルを取得します。

3.2 Exadata Storage Serverの物理ディスクの保守

Exadata Storage Serverの最初の2枚のディスクは、システム・ディスクです。Oracle Exadata Storage Server Softwareシステム・ソフトウェアは、各システム・ディスクに割り当てられます。システム・ディスクのこの割り当てられた部分は、システム領域と呼ばれます。システム・ディスクのシステム領域以外は、データ・パーティションと呼ばれ、通常のデータ・ストレージに使用されます。セルの他のすべてのディスクは、データ・ディスクと呼ばれます。

CellCLI LIST PHYSICALDISKコマンドで属性を確認して、物理ディスクを監視できます。たとえば、物理ディスクのステータスが"failed" (以前のリリースでは、障害が発生した物理ディスクのステータスは"critical"でした)または"warning - predictive failure"と同等の場合、問題が発生している可能性があり、交換が必要です。内部しきい値を超えると、ディスク・ファームウェアによってエラー・カウンタが保守され、ドライブはPredictive Failureとマーク付けされます。交換が必要かどうかは、セル・ソフトウェアではなくドライブによって決定されます。

ディスクI/Oエラーが発生すると、Oracle ASMはメディア・エラーによる読取りエラーの障害範囲の修理を実行します。ディスクはオンラインのままで、アラートは送信されません。Oracle ASMが物理的に対処されたメタデータ・ブロックに関する読取りエラーを取得すると、ブロックはミラーリングされず、ディスクはオフラインになります。Oracle ASMは強制的にディスクを削除します。

表3-1に、Exadata Storage Serverの物理ディスク・ステータスを示します。

表3-1 Exadata Storage Serverの物理ディスク・ステータス

Oracle Exadata Storage Server Softwareリリース 物理ディスク・ステータス

リリース11.2.3.3以上

正常

正常 - 交換のため切断

正常 - 制限されたオンライン

正常 - 制限されたオンライン - 交換のため切断

存在しない

失敗

障害 - 交換のため切断

障害 - 不適切なディスク・モデルのため拒否

障害 - 不適切なディスク・モデルのため拒否 - 交換のため切断

障害 - 間違ったスロットのため拒否

障害 - 間違ったスロットのため拒否 - 交換のため切断

警告 - 制限されたオンライン

警告 - 制限されたオンライン - 交換のため切断

警告 - ピア障害

警告 - 低いパフォーマンス

警告 - 低いパフォーマンス - 交換のため切断

警告 - 低いパフォーマンス、ライトスルー・キャッシュ

警告 - 予測障害、低いパフォーマンス

警告 - 予測障害、低いパフォーマンス - 交換のため切断

警告 - 予測障害、ライトスルー・キャッシュ

警告 - 予測障害

警告 - 予測障害 - 交換のため切断

警告 - 予測障害、低いパフォーマンス、ライトスルー・キャッシュ

警告 - ライトスルー・キャッシュ

リリース11.2.3.2

正常

正常 - 制限されたオンライン

存在しない

失敗

障害 - 不適切なディスク・モデルのため拒否

障害 - 間違ったスロットのため拒否

警告 - 制限されたオンライン

警告 - ピア障害

警告 - 低いパフォーマンス

警告 - 低いパフォーマンス、ライトスルー・キャッシュ

警告 - 予測障害、低いパフォーマンス

警告 - 予測障害、ライトスルー・キャッシュ

警告 - 予測障害

警告 - 予測障害、低いパフォーマンス、ライトスルー・キャッシュ

警告 - ライトスルー・キャッシュ

リリース11.2.3.1.1以下

正常

予測障害

低いパフォーマンス

critical

存在しない

リリース11.2.3.2.0以上のOracle Exadata Storage Server Softwareでは、ディスクが交換可能であることを示すアラートが送信され、ディスクの外部にすべてのデータがリバランスされた後にそのディスクが予測障害を持つ場合、青色のLEDが点灯します。11.2.3.2.0より前のリリースでは、ディスクが予測障害を持つ場合、青色のLEDではなく、黄色のLEDが点灯しました。このような場合、ディスクの交換を進める前に、すべてのデータがそのディスクの外部にリバランスされたかどうかを手動でチェックする必要があります。

ディスクで障害が発生すると、ドライブの青色のLEDと黄色のLEDが両方とも点灯し、この場合、ディスクの交換を進めてもかまいません。動作はすべてのリリースで同じです。ただし、ドライブのLEDはリリース11.2.3.2.0では点灯したままになるのに対し、以前のリリースでは点滅します。

注意:

Exadata Storage Serverの物理ディスクを交換中、Oracle Exadataラックはオンラインで使用可能です。

この項では、次の項目について説明します。

関連項目:

  • 予測障害および低いパフォーマンスのLEDステータス・ライトの詳細は、「LEDステータスの説明」を参照してください。

  • LIST PHYSICALDISKコマンドの詳細は、Oracle Exadata Storage Server Softwareユーザーズ・ガイドを参照してください。

  • 修復タイマーの設定の詳細は、『Oracle Exadata Storage Server Softwareユーザーズ・ガイド』を参照してください。

  • 保守のベスト・プラクティスの詳細は、http://www.oracle.com/goto/maaOracle Maximum Availability Architecture(MAA)Webサイトを参照してください。

  • My Oracle Supportノート1084360.1のExadata環境の計算ノードのベア・メタル・リストア手順に関する項

3.2.1 ハード・ディスク・コントローラのライトスルー・キャッシュ・モードの監視

各Exadata Storage Serverのハード・ディスク・コントローラは、定期的にコントローラのバッテリの放電と充電を実行します。操作中は、書込みキャッシュ・ポリシーにより、ライトバック・キャッシュからライトスルー・キャッシュに変更されます。ライトスルー・キャッシュ・モードはライトバック・キャッシュ・モードより時間を要します。ただし、Exadata Storage Serverの電源が落ちたり障害が発生したりすると、ライトバック・キャッシュ・モードの場合はデータ損失のリスクがあります。リリース11.2.1.3より前のExadata Storage Serverリリースの場合、この処理は毎月発生します。リリース11.2.1.3.0以上のOracle Exadata Storage Server Softwareの場合、この処理は3か月ごとに発生します(例: 1月、4月、7月、10月の17日の01:00時)。学習サイクルの開始時間を変更するには、次のようなコマンドを使用します。サイクルが終了すると、時間はデフォルト学習時間に戻ります。

CellCLI> ALTER CELL bbuLearnCycleTime="2013-01-22T02:00:00-08:00"

次の学習サイクル時間を確認するには、次のコマンドを使用します。

CellCLI> LIST CELL ATTRIBUTES bbuLearnCycleTime

Exadata Storage Serverによって、次のようなセル上の論理ドライブのキャッシュ・モードの状態に関するアラート情報が生成されます。

HDD disk controller battery on disk contoller at adapter 0 is going into a learn
cycle. This is a normal maintenance activity that occurs quarterly and runs for
approximately 1 to 12 hours. The disk controller cache might go into WriteThrough
caching mode during the learn cycle. Disk write throughput might be temporarily
lower during this time. The message is informational only, no action is required.

バッテリのステータスを確認するには、次のコマンドを使用します。

# /opt/MegaRAID/MegaCli/MegaCli64 -AdpBbuCmd -GetBbuStatus -a0

次に、コマンドの出力例を示します。

BBU status for Adapter: 0
 
BatteryType: iBBU08
Voltage: 3721 mV
Current: 541 mA
Temperature: 43 C
 
BBU Firmware Status:
Charging Status : Charging
Voltage : OK
Temperature : OK
Learn Cycle Requested : No
Learn Cycle Active : No
Learn Cycle Status : OK
Learn Cycle Timeout : No
I2c Errors Detected : No
Battery Pack Missing : No
Battery Replacement required : No
Remaining Capacity Low : Yes
Periodic Learn Required : No
Transparent Learn : No
 
Battery state:
 
GasGuageStatus:
Fully Discharged : No
Fully Charged : No
Discharging : No
Initialized : No
Remaining Time Alarm : Yes
Remaining Capacity Alarm: No
Discharge Terminated : No
Over Temperature : No
Charging Terminated : No
Over Charged : No
 
Relative State of Charge: 7 %
Charger System State: 1
Charger System Ctrl: 0
Charging current: 541 mA
Absolute state of charge: 0 %
Max Error: 0 %
 
Exit Code: 0x00

3.2.2 ディスク障害による物理ディスクの交換

物理ディスクの停止により、パフォーマンスの低下およびデータの冗長性が発生する場合があります。したがって、すぐにディスクを新しいディスクに交換する必要があります。ディスクに障害が発生すると、物理ディスクのグリッド・ディスクに関連するOracle ASMディスクがFORCEオプションで自動的に削除され、Oracle ASMリバランスでデータの冗長性がリストアされます。

ディスクに障害が発生すると、Exadataアラートが生成されます。アラートには、ディスクを交換する特定の手順が含まれます。システムのアラート通知を構成している場合、電子メールでアラートが指定したアドレスに送信されます。

物理ディスクを交換すると、そのスロットの前のディスクにあったグリッド・ディスクとセル・ディスクは新しい物理ディスクに再作成されます。これらのグリッド・ディスクがOracle ASMグループの一部である場合、ディスク・グループの冗長性およびASM_POWER_LIMITパラメータに基づいて、ディスクがディスク・グループに追加され、データがリバランスされます。

注意:

BP4のOracle Databaseリリース12.1.0.2と一緒にOracle Exadata Storage Server Softwareリリース12.1.2.0を実行しているストレージ・サーバーで、Oracle ASMはリバランス操作のステータスについて電子メールを送信します。以前のリリースでは、管理者が操作のステータスをチェックする必要がありました。

以前のリリースについては、「リバランス操作のステータスのチェック」の説明に従ってリバランス操作ステータスをチェックしてください。

次の手順は、ディスク障害によるディスクの交換方法を示しています。

  1. 次のコマンドを使用して、障害が発生したディスクを特定します。
    CellCLI> LIST PHYSICALDISK WHERE diskType=HardDisk AND status=failed DETAIL
    

    次に、コマンドの出力例を示します。スロット番号はディスクの場所、ステータスはディスクに障害が発生したことを示します。

    CellCLI> LIST PHYSICALDISK WHERE diskType=HardDisk AND status=failed DETAIL
    
             name:                   28:5
             deviceId:               21
             diskType:               HardDisk
             enclosureDeviceId:      28
             errMediaCount:          0
             errOtherCount:          0
             foreignState:           false
             luns:                   0_5
             makeModel:              "SEAGATE ST360057SSUN600G"
             physicalFirmware:       0705
             physicalInterface:      sas
             physicalSerial:         A01BC2
             physicalSize:           558.9109999993816G
             slotNumber:             5
             status:                 failed
    
  2. ディスクを取り外す前に、ディスクの青い取外しOKのLEDが点灯していることを確認してください。
  3. Exadata Storage Server上の物理ディスクを交換し、3分待ちます。物理ディスクはホットプラグ対応で、電源の投入時に交換できます。
  4. ディスクがオンラインであることを確認します。

    物理ディスクを交換する場合、使用前にディスクをRAIDコントローラで承認する必要があります。この処理にあまり時間は要しません。次のようなLIST PHYSICALDISKコマンドを使用して、ステータスがNORMALであることを確認します。

    CellCLI> LIST PHYSICALDISK WHERE name=28:5 ATTRIBUTES status
    
  5. ALTER CELL VALIDATE CONFIGURATIONコマンドを使用して、ファームウェアが正しいことを確認します。

まれに、自動ファームウェア更新が機能せず、LUNが再構築されない場合があります。これは、ms-odl.trcファイルをチェックして確認できます。

関連項目:

  • Exadata Storage Serverの部品

  • V$ASM_OPERATIONビューの詳細は、『Oracle Databaseリファレンス』を参照してください。

  • リバランス操作の詳細は、『Oracle Automatic Storage Management管理者ガイド』を参照してください。

3.2.3 ディスクの問題による物理ディスクの交換

ディスクがwarning - predictive failureステータスのため、物理ディスクの交換が必要な場合があります。predictive failureステータスは、物理ディスクに障害が発生する可能性があり、できるだけすぐに交換する必要があることを示します。物理ドライブのグリッド・ディスクに関連するOracle ASMディスクが自動的に削除され、Oracle ASMリバランスで障害が発生する可能性のあるディスクから他のディスクにデータが移動されます。

物理ドライブが故障する前に削除を完了できなかった場合は、「ディスク障害による物理ディスクの交換」を参照してください。

ディスクを削除すると、アラートが送信されます。物理ディスクを交換すると、スロットの前のディスクにあったグリッド・ディスクとセル・ディスクは新しい物理ディスクに再作成されます。これらのグリッド・ディスクがOracle ASMディスク・グループの一部である場合、ディスク・グループの冗長性およびASM_POWER_LIMITパラメータに基づいて、ディスクがディスク・グループに追加され、データがリバランスされます。

注意:

BP4のOracle Databaseリリース12.1.0.2と一緒にOracle Exadata Storage Server Softwareリリース12.1.2.0を実行しているストレージ・サーバーで、Oracle ASMはリバランス操作のステータスについて電子メールを送信します。以前のリリースでは、管理者が操作のステータスをチェックする必要がありました。

以前のリリースについては、「リバランス操作のステータスのチェック」の説明に従ってリバランス操作ステータスをチェックしてください。

次の手順は、ディスクの問題によるディスクの交換方法を示しています。

  1. 次のコマンドを使用して、障害が発生したディスクを特定します。
    CellCLI> LIST PHYSICALDISK WHERE diskType=HardDisk AND status= \
            "warning - predictive failure" DETAIL
    

    次に、コマンドの出力例を示します。スロット番号はディスクの場所、ステータスはディスクに障害が発生する可能性があることを示します。

    CellCLI> LIST PHYSICALDISK WHERE diskType=HardDisk AND status= \
             "warning - predictive failure" DETAIL
             name:                   28:3
             deviceId:               19
             diskType:               HardDisk
             enclosureDeviceId:      28
             errMediaCount:          0
             errOtherCount:          0
             foreignState:           false
             luns:                   0_3
             makeModel:              "SEAGATE ST360057SSUN600G"
             physicalFirmware:       0705
             physicalInterface:      sas
             physicalSerial:         E07L8E
             physicalSize:           558.9109999993816G
             slotNumber:             3
             status:                 warning - predictive failure
    
  2. ディスクを取り外す前に、ディスクの青い取外しOKのLEDが点灯していることを確認してください。
  3. 物理ディスクのグリッド・ディスクに関連するOracle ASMディスクが正しく削除されるまで待機します。グリッド・ディスクが削除されたかどうか判別するには、Oracle ASMインスタンスのV$ASM_DISK_STATビューの問合せを実行します。

    注意:

    最初の2つのスロットのディスクは、オペレーティング・システムおよびOracle Exadata Storage Server Softwareを格納するシステム・ディスクです。1つのシステム・ディスクを稼働して、サーバーを維持する必要があります。

    他のシステム・ディスクを交換する前に、ALTER CELL VALIDATE CONFIGURATIONにmdadmエラーが表示されなくなり、システム・ディスクの再同期化が完了するまで待機します。

  4. Exadata Storage Server上の物理ディスクを交換し、3分待ちます。物理ディスクはホットプラグ対応で、電源の投入時に交換できます。
  5. ディスクがオンラインであることを確認します。

    物理ディスクを交換する場合、使用前にディスクをRAIDコントローラで承認する必要があります。この処理にあまり時間は要しません。次のようなLIST PHYSICALDISKコマンドを使用して、ステータスがNORMALであることを確認します。

    CellCLI> LIST PHYSICALDISK WHERE name=28:5 ATTRIBUTES status
    
  6. ALTER CELL VALIDATE CONFIGURATIONコマンドを使用して、ファームウェアが正しいことを確認します。

関連項目:

  • Exadata Storage Serverの部品

  • V$ASM_OPERATIONビューの詳細は、『Oracle Databaseリファレンス』を参照してください。

  • リバランス操作のチューニングの詳細は、『Oracle Automatic Storage Management管理者ガイド』を参照してください。

  • V$ASM_DISK_STATビューの問合せの詳細は、『Oracle Databaseリファレンス』を参照してください。

  • 『Oracle Exadata Storage Server Softwareユーザーズ・ガイド』ALTER CELL VALIDATE CONFIGURATIONコマンドに関する項

3.2.4 低いパフォーマンスによる物理ディスクの交換

1つの不良物理ディスクが、他の正常なディスクのパフォーマンスを低下させることがあります。不良ディスクはそのままにしないでシステムから削除する必要があります。リリース11.2.3.2以上では、パフォーマンスの低いディスクが自動的に識別され、アクティブな構成から削除されます。その後、Oracle Exadata Database Machineにより一連のパフォーマンス・テストが実行されます。CELLSRVでパフォーマンスの低いディスクが検出されると、セル・ディスクのステータスがnormal - confinedOnlineに変更され、物理ディスクのステータスがwarning - confinedOnlineに変更されます。次の状況はディスク制限のトリガーとなります。

  • ディスクの応答停止。ストレージ・アラート・ログ内の原因コードはCD_PERF_HANGです。

  • セル・ディスクの速度低下。次に例を示します。

    • サービス時間のしきい値が高い(原因コードCD_PERF_SLOW_ABS)

    • 相対的サービス時間のしきい値が高い(原因コードCD_PERF_SLOW_RLTV)

  • 読取りまたは書込みでの長期待機時間。次に例を示します。

    • 書込みでの待機時間が長い(原因コードCD_PERF_SLOW_LAT_WT)

    • 読取りでの待機時間が長い(原因コードCD_PERF_SLOW_LAT_RD)

    • 読取りおよび書込みでの待機時間が長い(原因コードCD_PERF_SLOW_LAT_RW)

    • 頻繁に発生する個々のI/Oでの絶対的待機時間が非常に長い(原因コードCD_PERF_SLOW_LAT_ERR)

  • I/Oエラーなどのエラー(原因コードCD_PERF_IOERR)。

ディスクの問題が一時的なものであり、テストに合格した場合は、そのディスクは構成に戻されます。ディスクがテストに合格しない場合は、poor performanceとしてマークされ、ASRによりディスク交換のためのサービス・リクエストが送信されます。可能な場合は、Oracle ASMによりグリッド・ディスクがテスト用にオフラインに変更されます。Oracle ASMがディスクをオフラインに変更できない場合、セル・ディスクのステータスは、ディスクを安全にオフラインに変更できるようになるまで、normal - confinedOnlineのまま変わりません。

ディスクのステータスの変更は、セルのアラート履歴にある次のエントリに関連付けられています。

MESSAGE ID date_time info "Hard disk entered confinement status. The LUN
 n_m changed status to warning - confinedOnline. CellDisk changed status to normal
 - confinedOnline. Status: WARNING - CONFINEDONLINE  Manufacturer: name  Model
 Number: model  Size: size  Serial Number: serial_number  Firmware: fw_release 
 Slot Number: m  Cell Disk: cell_disk_name  Grid Disk: grid disk 1, grid disk 2
 ... Reason for confinement: threshold for service time exceeded"

ストレージ・セルのアラート・ログには次の情報が記録されます。

CDHS: Mark cd health state change cell_disk_name  with newState HEALTH_BAD_
ONLINE pending HEALTH_BAD_ONLINE ongoing INVALID cur HEALTH_GOOD
Celldisk entering CONFINE ACTIVE state with cause CD_PERF_SLOW_ABS activeForced: 0
inactiveForced: 0 trigger HistoryFail: 0, forceTestOutcome: 0 testFail: 0
global conf related state: numHDsConf: 1 numFDsConf: 0 numHDsHung: 0 numFDsHung: 0
...

注意:

11.2.3.2より前のリリースでは、CALIBRATEコマンドを使用して不良物理ディスクを識別し、各物理ディスクについてスループットやIOPSが極端に低くないか調べてください。

次の手順は、不良ディスクが確認された場合の物理ディスクの取外し方法を示しています。

  1. 物理ドライブ・サービスLEDを点灯し、次のコマンドを使用して交換するドライブを識別します。
    cellcli -e 'alter physicaldisk disk_name serviceled on'
    

    前述のコマンドでdisk_nameは、20:2などの交換する物理ディスクの名前です。

  2. 不良ディスクのすべてのグリッド・ディスクを確認します。次のコマンドを使用して、Oracle ASMに不良ディスクの使用をただちに停止するよう指示します。
    SQL> ALTER DISKGROUP diskgroup_name DROP DISK asm_disk_name;
    
  3. ディスクを取り外す前に、ディスクの青い取外しOKのLEDが点灯していることを確認してください。
  4. V$ASM_DISK_STATビューの問合せを実行して、不良ディスクのグリッド・ディスクに関連するOracle ASMディスクが正しく削除されたことを確認します。
  5. 不良ディスクを取り外します。ディスクを削除すると、アラートが送信されます。
  6. 新しいディスクを使用できる場合、システムに新しいディスクを設置します。セル・ディスクおよびグリッド・ディスクが新しい物理ディスクに自動的に作成されます。

    注意:

    物理ディスクを交換する場合、使用前にディスクをRAIDコントローラで承認する必要があります。承認処理に時間はかかりませんが、LIST PHYSICALDISKコマンドを使用してステータスがNORMALであることを確認してください。

関連項目:

  • Oracle Exadata Storage Server Softwareユーザーズ・ガイド

  • ディスク・グループからのディスクの削除の詳細は、『Oracle Automatic Storage Management管理者ガイド』を参照してください。

3.2.5 物理ディスクの事前交換

Exadata Storageソフトウェアには、物理ディスクで障害が発生したか、問題のあるディスクとしてフラグが付けられた場合に物理ディスクを保守するための、自動化された完全な一連の操作が備えられています。ただし、物理ディスクを事前に構成から取り外す必要がある場合があります。

CellCLIのALTER PHYSICALDISKコマンドでは、drop for replacementオプションによって、データ損失のリスクなく安全に、正常に機能している物理ディスクを削除できるかどうかが確認されます。ただし、コマンドを実行した後、ストレージ・セルで物理ディスクのグリッド・ディスクが非アクティブ化され、Oracle ASMディスク・グループでオフラインに設定されます。

物理ディスクが交換または再有効化され、後続のリバランスが完了するまで、ディスク・グループの冗長性が損なわれます。このことは、標準冗長性を使用するディスク・グループにおいて特に重要です。

ディスク・グループで十分な冗長性を確保できないリスクを抑えて、事前に物理ディスクを交換するには、次の手順を実行します。

  1. 物理ディスクに関連付けられたlun、celldiskおよびgriddiskを特定します。

    次のようなコマンドを使用します。ここで、X:Yは交換するドライブの物理ディスク名を示します。

    # cellcli –e "list diskmap" | grep 'X:Y'
  2. 通常のモードで、Oracle ASMディスク・グループからグリッド・ディスクを削除します。
    SQL> ALTER DISKGROUP diskgroup_name DROP DISK asm_disk_name;
  3. リバランスが完了するまで待ちます。
  4. drop for replacementを実行します。

    次のようなコマンドを使用します。ここで、X:Yは交換するドライブの物理ディスク名を示します。

    CellCLI> alter physicaldisk X:Y drop for replacement
  5. ディスクを取り外す前に、ディスクの青い取外しOKのLEDが点灯していることを確認します。
  6. 新しい物理ディスクに交換します。
  7. 物理ディスクに関連付けられたlun、celldiskおよびgriddiskが作成されていることを確認します。
    CellCLI> list lun lun_name
    CellCLI> list celldisk where lun=lun_name
    CellCLI> list griddisk where celldisk=celldisk_name
  8. グリッド・ディスクがOracle ASMディスク・グループに追加されたことを確認します。

    次の問合せでは行が戻されません。

    SQL> SELECT path,header_status FROM v$asm_disk WHERE group_number=0;

    次の問合せでは、すべての障害グループのディスク数が同じかどうかが示されます。

    SQL> SELECT group_number, failgroup, mode_status, count(*) FROM v$asm_disk
         GROUP BY group_number, failgroup, mode_status;

3.2.6 Exadata Storage Serverから別のExadata Storage Serverへのすべてのドライブの移動

Exadata Storage Serverから別のExadata Storage Serverへのすべてのドライブの移動が必要になることがあります。この作業が必要になるのは、マザーボードやILOM障害などのシャーシ・レベルのコンポーネント障害がある場合またはハードウェアの問題のトラブルシューティングを行う場合です。

次の手順は、ドライブの移動方法を示しています。

  1. 次のディレクトリのファイルをバックアップします。
    • /etc/hosts

    • /etc/modprobe.conf

    • /etc/sysconfig/network

    • /etc/sysconfig/network-scripts

  2. 「Exadata Storage Serverのシャットダウン」を参照して、すべてのグリッド・ディスクを安全に無効化し、Exadata Storage Serverをシャットダウンします。別のExadata Storage Serverでグリッド・ディスクをアクティブ化する前にOracle ASMによってディスクが削除されないように、Oracle ASMのdisk_repair_time属性に十分に大きい値が設定されていることを確認してください。
  3. 物理ディスク、フラッシュ・ディスク、ディスク・コントローラおよびUSBフラッシュ・ドライブを元のExadata Storage Serverから新しいExadata Storage Serverに移動します。

    注意:

    • システム・ディスクの最初の2つのディスクが同じ最初の2つのスロットにあることを確認してください。そうしないと、Exadata Storage Serverが正常に機能しません。

    • フラッシュ・カードが元のExadata Storage Serverと同じPCIeスロットに設置されていることを確認してください。

  4. サービス・プロセッサ・インタフェースまたは電源ボタンを使用して、新しいExadata Storage Serverの電源を投入します。
  5. サービス・プロセッサまたはKVMスイッチを使用して、コンソールにログインします。
  6. 次のディレクトリのファイルを確認します。破損している場合、バックアップからリストアします。
    • /etc/hosts

    • /etc/modprobe.conf

    • /etc/sysconfig/network

    • /etc/sysconfig/network-scripts

  7. ifconfigコマンドを使用して、eth0、eth1、eth2およびeth3の新しいMACアドレスを取得します。次に、eth0 MACアドレスを取得する例を示します。
    # ifconfig eth0
    eth0      Link encap:Ethernet  HWaddr 00:14:4F:CA:D9:AE
              inet addr:10.204.74.184  Bcast:10.204.75.255  Mask:255.255.252.0
              inet6 addr: fe80::214:4fff:feca:d9ae/64 Scope:Link
              UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
              RX packets:141455 errors:0 dropped:0 overruns:0 frame:0
              TX packets:6340 errors:0 dropped:0 overruns:0 carrier:0
              collisions:0 txqueuelen:1000
              RX bytes:9578692 (9.1 MiB)  TX bytes:1042156 (1017.7 KiB)
              Memory:f8c60000-f8c80000
    
  8. 手順7の出力に基づいて、/etc/sysconfig/network-scriptsディレクトリのifcfg-eth0ファイル、ifcfg-eth1ファイル、ifcfg-eth2ファイルおよびifcfg-eth3ファイルを編集してHWADDR値を変更します。次に、ifcfg-eth0ファイルの例を示します。
    #### DO NOT REMOVE THESE LINES ####
    #### %GENERATED BY CELL% ####
    DEVICE=eth0
    BOOTPROTO=static
    ONBOOT=yes
    IPADDR=10.204.74.184
    NETMASK=255.255.252.0
    NETWORK=10.204.72.0
    BROADCAST=10.204.75.255
    GATEWAY=10.204.72.1
    HOTPLUG=no
    IPV6INIT=no
    HWADDR=00:14:4F:CA:D9:AE
    
  9. Exadata Storage Serverを再起動します。
  10. 次のコマンドを使用して、グリッド・ディスクをアクティブ化します。
    CellCLI> ALTER GRIDDISK ALL ACTIVE
    

    セルのディスクのOracle ASMディスクが削除されなかった場合、それらのディスクは自動的にONLINEに変更され、使用が開始されます。

  11. 次のコマンドを使用して、構成を検証します。
    CellCLI> ALTER CELL VALIDATE CONFIGURATION
    
  12. ASRのILOMをアクティブ化します。

関連項目:

  • Oracle Exadata Database Machine Oracle Auto Service Requestクイック・インストレーション・ガイド

  • Oracle Exadata Storage Server Softwareユーザーズ・ガイド

    CellCLIユーティリティの詳細
  • ディスク修復時間の詳細は、『Oracle Automatic Storage Management管理者ガイド』を参照してください。

3.2.7 物理ディスクの再利用

ディスクのすべてのデータを削除し、別の目的でディスクを使用できます。これを実行する前に、ディスクのデータをコピーしてください。

次の手順は、ディスクの再利用方法を示しています。

  1. CellCLIのLISTコマンドを使用して、Exadata Storage Serverオブジェクトを表示します。物理ドライブのグリッド・ディスクおよびセル・ディスクを確認する必要があります。次に例を示します。
    CellCLI> LIST PHYSICALDISK
             20:0   D174LX    normal
             20:1   D149R0    normal
             ...
    
  2. 次のようなコマンドを使用して、LUNのセル・ディスクおよびグリッド・ディスクを特定します。
    CellCLI> LIST LUN ATTRIBUTES name, cellDisk WHERE physicalDrives='20:0'
    
  3. Oracle ASMから次のコマンドを使用して、物理ディスクのOracle ASMディスクを削除します。
    SQL> ALTER DISKGROUP diskgroup_name DROP DISK asm_disk_name;
    
  4. Exadata Storage Serverから次のコマンドを使用して、物理ディスクのセル・ディスクおよびグリッド・ディスクを削除します。
    CellCLI> DROP CELLDISK celldisk_on_this_lun FORCE 
    

    注意:

    セル・ディスクのすべてのデータを上書きするには、DROP CELLDISKコマンドでERASEオプションを使用します。このコマンドの例を次に示します。

    CellCLI> DROP CELLDISK CD_03_cell01 ERASE=1pass NOWAIT
    CellDisk CD_03_cell01 erase is in progress
    
  5. ホット削除するドライブを削除します。次に例を示します。
    CellCli> ALTER PHYSICALDISK 20:0 DROP FOR REPLACEMENT
    
  6. ディスクを取り外す前に、ディスクの青い取外しOKのLEDが点灯していることを確認してください。

    注意:

    ドライブを取り外す前に、ディスクの青色のLEDが点灯していることを確認します。青色のLEDが消灯している場合にドライブを取り外すと、システムがクラッシュする場合があるため、取り外さないでください。

  7. 再利用するディスクを取り外し、新しいディスクを挿入します。
  8. 新しい物理ディスクがLUNとして追加されるまで待機します。
    CellCLI> LIST LUN
    

    セル・ディスクとグリッド・ディスクが新しい物理ディスクに自動的に作成され、グリッド・ディスクがOracle ASMグループに追加されます。

関連トピック

  • Oracle Exadata Storage Server Softwareユーザーズ・ガイド

3.2.8 同じ物理ディスクの取外しおよび交換

不注意で間違った物理ディスクを削除した場合、ディスクを元に戻します。Oracle ASMディスク・グループに自動的に追加され、そのデータは再同期化されます。

注意:

ディスク障害またはディスクの問題でディスクを交換すると、ディスク上でLEDが点灯し識別できます。

3.2.9 拒否された物理ディスクの再有効化

不適切なスロットに挿入されたことが原因で物理ディスクが拒否された場合は、次のコマンドを実行してください。

注意:

次のコマンドでは、物理ディスク上のデータをすべて削除します。

CellCLI> ALTER PHYSICALDISK hard_disk_name/hard_disk_id reenable force

次に、コマンドの出力例を示します。

Physical disk hard_disk_name/hard_disk_id  was reenabled.

3.3 フラッシュ・ディスクの保守

データはExadataセル間でミラー化され、書込み操作が少なくとも2つのストレージ・セルに送信されます。1つのExadata Storage Serverのフラッシュ・カードに問題が発生すると、別のExadata Storage Serverのミラー化されたデータによって読取りおよび書込み操作が実行されます。アプリケーションでサービスの中断は発生しません。

フラッシュ・カードに障害が発生すると、Oracle Exadata Storage Server Softwareは、残存ミラーからデータを読み取り、フラッシュ・キャッシュのデータを確認します。次に、フラッシュ・カードに障害が発生したセルにデータが書き込まれます。障害が発生したフラッシュ・キャッシュ内での損失データの場所が、Oracle Exadata Storage Server Softwareによってフラッシュの障害発生時に保存されます。損失データをミラー・コピーに置き換えることにより、復元が開始されます。復元中、グリッド・ディスクのステータスはACTIVE -- RESILVERING WORKINGになります。

この項では、フラッシュ・ディスクの保守を実行する方法について説明します。次の項目が含まれます。

3.3.1 フラッシュ・ディスク障害によるフラッシュ・ディスクの交換

Exadata Storage Serverには、それぞれフラッシュ・デバイスが付属しています。フラッシュ・デバイスはExtreme Flashセルではホットプラグ対応ですが、High Capacityセルでは対応していません。High Capacityセルでは、交換前にセルの電源を切る必要があります。

障害が発生したフラッシュ・ディスクを確認するには、次のコマンドを使用します。

CellCLI> LIST PHYSICALDISK WHERE DISKTYPE=flashdisk AND STATUS=failed DETAIL

Extreme Flashセルからの出力例を次に示します。

    name:                          NVME_10
      deviceName:                 /dev/nvme7n1
      diskType:             FlashDisk
      luns:                 0_10
      makeModel:            "Oracle NVMe SSD"
      physicalFirmware:        8DV1RA13
      physicalInsertTime:     2016-09-28T11:29:13-07:00
      physicalSerial:           CVMD426500E21P6LGN
      physicalSize:              1.4554837569594383T
      slotNumber:                 10
      status:                       failed

次に、Sun Flash Accelerator F20 PCIeカードからの出力例を示します。

CellCLI> LIST PHYSICALDISK WHERE DISKTYPE=flashdisk AND STATUS=failed DETAIL

         name:                   FLASH_5_3
         diskType:               FlashDisk
         luns:                   5_3
         makeModel:              "Sun Flash Accelerator F20 PCIe Card"
         physicalFirmware:       D20Y
         physicalInsertTime:     2012-05-14T17:44:14-07:00
         physicalSerial:         1030M03UYM
         physicalSize:           22.8880615234375G
         slotNumber:             "PCI Slot: 5; FDOM: 3"
         status:                 failed

次に、Sun Flash Accelerator F40 PCIeカードからの出力例を示します。

         name:                   FLASH_5_3
         diskType:               FlashDisk
         luns:                   5_3
         makeModel:              "Sun Flash Accelerator F40 PCIe Card"
         physicalFirmware:       TI35
         physicalInsertTime:     2012-07-13T15:40:59-07:00
         physicalSerial:         5L002X4P
         physicalSize:           93.13225793838501G
         slotNumber:             "PCI Slot: 5; FDOM: 3"
         status:                 failed

F20およびF40 PCIeカードの場合、nameおよびslotNumber属性は、PCIスロットおよびFDOM番号を示します。

Extreme Flashセルの場合、slotNumber属性は、前面パネルのNVMeスロットを示します。

フラッシュ・ディスクの障害が検出されると、フラッシュ・ディスクとそのLUNで障害が発生したことを示すアラートが生成されます。アラート・メッセージには、PCIスロット番号とFDOM番号か、またはNVMeスロット番号が含まれています。これらの番号により、フィールド交換可能ユニット(FRU)が一意に識別されます。システムのアラート通知を構成している場合は、指定したアドレスにアラートが電子メール・メッセージで送信されます。

フラッシュ・ディスクの停止により、パフォーマンスの低下およびデータの冗長性が発生する場合があります。できるだけすぐに障害が発生したディスクを新しいフラッシュ・ディスクに交換する必要があります。フラッシュ・キャッシュにフラッシュ・ディスクを使用する場合、セルの有効なキャッシュ・サイズが縮小します。フラッシュ・ログにフラッシュ・ディスクを使用する場合、ディスクでフラッシュ・ログが無効になり、有効なフラッシュ・ログ・サイズが縮小します。グリッド・ディスクにフラッシュ・ディスクを使用する場合、FORCEオプションによってグリッド・ディスクに関連するOracle ASMディスクがOracle ASMディスク・グループから自動的に削除され、Oracle ASMリバランスでデータの冗長性のリストアが開始されます。

次の手順は、High Capacityセルでの、ディスク障害によるFDOMの交換方法を示しています。Extreme FlashセルでのNVMeドライブの交換は、物理ディスクの交換と同様に、前面パネルからNVMeドライブを取り外して新しいものを挿入するのみです。セルを停止する必要はありません。

  1. セルを停止します。
  2. PCI番号およびFDOM番号に基づいて、障害が発生したフラッシュ・ディスクを交換します。白色のセルLEDが点灯し、影響を受けているセルを特定できます。
  3. セルの電源を投入します。セル・サービスが自動的に開始されます。セルの起動の一環として、Oracle ASMですべてのグリッド・ディスクが自動的にONLINEになります。
  4. 次のコマンドを使用して、すべてのグリッド・ディスクが正常にオンラインになったことを確認します。
    CellCLI> LIST GRIDDISK ATTRIBUTES name, asmmodestatus
    

    すべてのグリッド・ディスクのasmmodestatusONLINEまたはUNUSEDになるまで待機します。

新しいフラッシュ・ディスクがシステムによって自動的に使用されます。フラッシュ・キャッシュにフラッシュ・ディスクを使用する場合、有効なキャッシュ・サイズが拡張します。グリッド・ディスクにフラッシュ・ディスクを使用する場合、グリッド・ディスクが新しいフラッシュ・ディスクに再作成されます。これらのグリッド・ディスクがOracle ASMディスク・グループの一部である場合、ディスク・グループの冗長性およびASM_POWER_LIMITパラメータに基づいて、ディスクがディスク・グループに追加され、データがリバランスされます。

関連項目:

  • Exadata Storage Serverのシャットダウン

  • 部品情報およびサービス・ガイドのリンクは、「Exadata Storage Serverの部品」を参照してください。

  • V$ASM_OPERATIONビューの詳細は、『Oracle Databaseリファレンス』を参照してください。

  • ASM_POWER_LIMITの詳細は、『Oracle Automatic Storage Management管理者ガイド』を参照してください。

  • CellCLIユーティリティの詳細は、『Oracle Exadata Storage Server Softwareユーザーズ・ガイド』を参照してください

  • 「関連ドキュメント」に記載されている、ご使用のシステムに適したPCIeカード・ユーザーズ・ガイド

3.3.2 フラッシュ・ディスクの問題によるフラッシュ・ディスクの交換

Exadata Storage Serverには、4枚のPCIeカードが付属しています。各カードに4個のフラッシュ・ディスク(FDOM)があり、合計16個のフラッシュ・ディスクが提供されます。4枚のPCIeカードは、PCIスロット番号1、2、4および5にあります。PCIeカードはホットプラグ対応ではありません。フラッシュ・ディスクまたはカードを交換する前にExadata Storage Serverの電源を切断する必要があります。

ディスクが次のステータスのいすれかになるため、フラッシュ・ディスクの交換が必要な場合があります。

  • 警告 - 予測障害

  • 警告 - 低いパフォーマンス

  • 警告 - ライトスルー・キャッシュ

  • 警告 - ピア障害

注意:

リリース11.2.3.2.2より前のリリースでは、ステータスはnot presentです。

フラッシュ・ディスクのpredictive failureステータスは、フラッシュ・ディスクに障害が発生する可能性があり、できるだけすぐに交換する必要があることを示します。フラッシュ・キャッシュにフラッシュ・ディスクを使用する場合、引き続きフラッシュ・キャッシュとして使用されます。グリッド・ディスクにフラッシュ・ディスクを使用する場合、グリッド・ディスクに関連するOracle ASMディスクが自動的に削除され、Oracle ASMリバランスで障害が発生する可能性のあるディスクから他のディスクにデータが移動されます。

フラッシュ・ディスクのpoor performanceステータスは、フラッシュ・ディスクのパフォーマンスが非常に低く、できるだけすぐに交換する必要があることを示します。リリース11.2.3.2以上では、パフォーマンスの低いディスクが自動的に識別され、アクティブな構成から削除されます。フラッシュ・キャッシュにフラッシュ・ディスクを使用する場合、このディスクからフラッシュ・キャッシュが削除され、Exadata Storage Serverの有効なフラッシュ・キャッシュ・サイズが縮小します。グリッド・ディスクにフラッシュ・ディスクを使用する場合、このフラッシュ・ディスクのグリッド・ディスクに関連するOracle ASMディスクがFORCEオプションによって可能な場合に自動的に削除されます。オフライン・パートナのためにDROP...FORCEが失敗した場合、通常グリッド・ディスクが自動的に削除され、Oracle ASMリバランスでパフォーマンスの低いディスクから他のディスクにデータが移動されます。

その後、Oracle Exadata Database Machineにより一連のパフォーマンス・テストが実行されます。CELLSRVでパフォーマンスの低いディスクが検出されると、セル・ディスクのステータスがnormal - confinedOnlineに変更され、物理ディスクのステータスがwarning - confinedOnlineに変更されます。次の状況はディスク制限のトリガーとなります。

  • ディスクの応答停止。ストレージ・アラート・ログ内の原因コードはCD_PERF_HANGです。

  • セル・ディスクの速度低下。次に例を示します。

    • サービス時間のしきい値が高い(原因コードCD_PERF_SLOW_ABS)

    • 相対的サービス時間のしきい値が高い(原因コードCD_PERF_SLOW_RLTV)

  • 読取りまたは書込みでの長期待機時間。次に例を示します。

    • 書込みでの待機時間が長い(原因コードCD_PERF_SLOW_LAT_WT)

    • 読取りでの待機時間が長い(原因コードCD_PERF_SLOW_LAT_RD)

    • 読取りおよび書込みでの待機時間が長い(原因コードCD_PERF_SLOW_LAT_RW)

    • 頻繁に発生する個々のI/Oでの絶対的待機時間が非常に長い(原因コードCD_PERF_SLOW_LAT_ERR)

  • I/Oエラーなどのエラー(原因コードCD_PERF_IOERR)。

ディスクの問題が一時的なものであり、テストに合格した場合は、そのディスクは構成に戻されます。ディスクがテストに合格しない場合は、poor performanceとしてマークされ、ASRによりディスク交換のためのサービス・リクエストが送信されます。可能な場合は、Oracle ASMによりグリッド・ディスクがテスト用にオフラインに変更されます。Oracle ASMがディスクをオフラインに変更できない場合、セル・ディスクのステータスは、ディスクを安全にオフラインに変更できるようになるまで、normal - confinedOnlineのまま変わりません。

ディスクのステータスの変更は、セルのアラート履歴にある次のエントリに関連付けられています。

MESSAGE ID date_time info "Hard disk entered confinement status. The LUN
 n_m changed status to warning - confinedOnline. CellDisk changed status to normal
 - confinedOnline. Status: WARNING - CONFINEDONLINE  Manufacturer: name  Model
 Number: model  Size: size  Serial Number: serial_number  Firmware: fw_release 
 Slot Number: m  Cell Disk: cell_disk_name  Grid Disk: grid disk 1, grid disk 2
 ... Reason for confinement: threshold for service time exceeded"

ストレージ・セルのアラート・ログには次の情報が記録されます。

CDHS: Mark cd health state change cell_disk_name  with newState HEALTH_BAD_
ONLINE pending HEALTH_BAD_ONLINE ongoing INVALID cur HEALTH_GOOD
Celldisk entering CONFINE ACTIVE state with cause CD_PERF_SLOW_ABS activeForced: 0
inactiveForced: 0 trigger HistoryFail: 0, forceTestOutcome: 0 testFail: 0
global conf related state: numHDsConf: 1 numFDsConf: 0 numHDsHung: 0 numFDsHung: 0
...

注意:

11.2.3.2より前のリリースでは、CALIBRATEコマンドを使用して不良フラッシュ・ディスクを識別し、各フラッシュ・ディスクについてスループットやIOPSが極端に低くないか調べてください。

フラッシュ・ディスクのパフォーマンスが非常に低い場合、poor performanceとしてマークされます。該当するフラッシュ・ディスクのフラッシュ・キャッシュが自動的に無効になり、そのフラッシュ・ディスクのグリッド・ディスクがOracle ASMディスク・グループから自動的に削除されます。

フラッシュ・ディスクのwrite-through cachingステータスは、PCIeカードのデータ・キャッシュのサポートに使用するキャパシタに障害が発生したため、できるだけすぐにカードを交換する必要があることを示します。

フラッシュ・ディスクのpeer failureステータスは、同じSun Flash Accelerator PCIeカードのいずれかのフラッシュ・ディスクに障害または問題が発生したことを示します。たとえば、FLASH_5_3に障害が発生すると、FLASH_5_0、FLASH_5_1およびFLASH_5_2がpeer failureステータスになります。次に、例を示します。

CellCLI> LIST PHYSICALDISK
         36:0            L45F3A          normal
         36:1            L45WAE          normal
         36:2            L45WQW          normal
...
         FLASH_5_0       5L0034XM        warning - peer failure
         FLASH_5_1       5L0034JE        warning - peer failure
         FLASH_5_2       5L002WJH        warning - peer failure
         FLASH_5_3       5L002X4P        failed

CellSRVにより、ライトバック・フラッシュ・キャッシュに使用されているフラッシュ・ディスクで予測障害またはピア障害が検出され、不良FDOMが1つのみの場合は、その不良FDOMのデータが復元され、残りの3つのFDOMのデータはフラッシュされます。その後、有効なグリッド・ディスクが存在する場合、CellSRVはディスクに対してOracle ASMリバランスが開始します。不良ディスクは、作業が完了するまで交換できません。ディスク交換が可能になると、MSによりアラートが送信されます。

X5以降のシステムでは、High Capacity上の各フラッシュ・カードおよびExtreme Flash上の各フラッシュ・ドライブはFRUです。これは、これらのシステムにはピア障害がないことを意味します。

X3およびX4システムでは、フラッシュ・カード自体がFRUであるため、いずれかのFDOMが失敗した場合、セル・ソフトウェアによってそのカード上の残りのFDOMが自動的にピア障害に設定され、フラッシュ・カードの交換の準備のためにデータを移動することができます。

V2およびX2システムでは、各FDOMはFRUです。これらのシステムのフラッシュにはピア障害がありません。

フラッシュ・ディスクが1つのため、フラッシュ・ディスクがpredictive failureになると、データがコピーされます。グリッド・ディスクにフラッシュ・ディスクを使用する場合、Oracle ASMと関連パートナが再びパートナになり、リバランスが実行されます。ライトバック・フラッシュ・キャッシュにフラッシュ・ディスクを使用する場合、フラッシュ・ディスクからグリッド・ディスクにデータがフラッシュされます。

predictive failureのフラッシュ・ディスクを確認するには、次のコマンドを使用します。

CellCLI> LIST PHYSICALDISK WHERE DISKTYPE=flashdisk AND STATUS=  \
'warning - predictive failure' DETAIL

         name:               FLASH1_2
         diskType:           FlashDisk
         luns:               1_2
         makeModel:          "Sun Flash Accelerator F20 PCIe Card"
         physicalFirmware:   D20Y
         physicalInsertTime: 2012-09-27T13:11:16-07:00
         physicalSerial:     508002000092e70FMOD2
         physicalSize:       22.8880615234375G
         slotNumber:         "PCI Slot: 1; FDOM: 2"
         status:             warning - predictive failure

poor performanceのフラッシュ・ディスクを確認するには、次のコマンドを使用します。

CellCLI> LIST PHYSICALDISK WHERE DISKTYPE=flashdisk AND STATUS= \
'warning - poor performance' DETAIL

         name:                FLASH1_4
         diskType:            FlashDisk
         luns:                1_4
         makeModel:           "Sun Flash Accelerator F20 PCIe Card"
         physicalFirmware:    D20Y
         physicalInsertTime:  2012-09-27T13:11:16-07:00
         physicalSerial:      508002000092e70FMOD2
         physicalSize:        22.8880615234375G
         slotNumber:          "PCI Slot: 1; FDOM: 3"
         status:              warning - poor performance

フラッシュ・ディスクがpredictive failurepoor performancewrite-through cachingまたはpeer failureステータスの場合、アラートが生成されます。アラートには、フラッシュ・ディスクを交換する特定の手順が含まれます。システムのアラート通知を構成している場合、電子メール・メッセージでアラートが指定したアドレスに送信されます。

ディスク交換にいつ進むかの決定は、次に示されているように、リリースによって異なります。

  • 11.2.3.2より前のリリースの場合:

    フラッシュ・ディスクの交換に進む前にV$ASM_DISK_STATビューの問合せを実行してOracle ASMディスクが正常に削除されるまで待機します。フラッシュ・ディスクで障害が発生する前に通常の削除を完了できなかった場合、FORCEオプションによってOracle ASMディスク・グループからOracle ASMディスクが自動的に削除されます。フラッシュ・ディスクで障害が発生する前にDROPコマンドが完了しなかった場合は、「フラッシュ・ディスク障害によるフラッシュ・ディスクの交換」を参照してください。

  • リリース11.2.3.2以上の場合:

    Oracle ASMディスクが削除されている場合は、アラートが送信され、フラッシュ・ディスクを安全に交換できます。フラッシュ・ディスクをライトバック・フラッシュ・キャッシュに使用する場合、フラッシュ・ディスクによってキャッシュされるグリッド・ディスクがなくなるまで待機します。すべてのグリッド・ディスクのcachedBy属性をチェックするには、次のコマンドを使用します。フラッシュ・ディスクのセル・ディスクは、グリッド・ディスクのcachedBy属性には表示されません。

    CellCLI> LIST GRIDDISK ATTRIBUTES name, cachedBy
    

    フラッシュ・ディスクをグリッド・ディスクとフラッシュ・キャッシュの両方に使用する場合は、アラートを受信し、セル・ディスクがグリッド・ディスクのcachedBy属性に表示されなくなるまで待機します。

次の手順は、ディスクの問題によるHigh Capacityセルでのフラッシュ・ディスクの交換方法を示しています。Extreme Flashセルでは、前面パネルからドライブを取り外して新しいものを挿入するのみです。セルを停止する必要はありません。

  1. 次のコマンドを使用して、セル・サービスを停止します。
    CellCLI> ALTER CELL SHUTDOWN SERVICES ALL
    

    前述のコマンドでは、オフラインのディスクがないか、predictive failureステータスのディスクがないか、またはミラーにコピーする必要があるディスクがないかをチェックします。Oracle ASM冗長性が損なわれていない場合は、コマンドによりOracle ASMでグリッド・ディスクがオフラインに変更され、セル・サービスが停止されます。次のエラーが表示された場合は、冗長性が原因でディスク・グループが強制的にディスマウントされ、セル・サービスを安全に停止できない可能性があります。

    Stopping the RS, CELLSRV, and MS services...
    The SHUTDOWN of ALL services was not successful.
    CELL-01548: Unable to shut down CELLSRV because disk group DATA, RECO may be
    forced to dismount due to reduced redundancy.
    Getting the state of CELLSRV services... running
    Getting the state of MS services... running
    Getting the state of RS services... running
    

    エラーが発生した場合は、Oracle ASMディスク・グループの冗長性をリストアし、すべてのディスクのディスク・ステータスが正常に戻ってからコマンドを再試行してください。

  2. セルを停止します。
  3. PCI番号およびFDOM番号に基づいて、障害が発生したフラッシュ・ディスクを交換します。白色のセルLEDが点灯し、影響を受けているセルを特定できます。
  4. セルの電源を投入します。セル・サービスが自動的に開始されます。セルの起動の一環として、Oracle ASMですべてのグリッド・ディスクが自動的にONLINEになります。
  5. 次のコマンドを使用して、すべてのグリッド・ディスクが正常にオンラインになったことを確認します。
    CellCLI> LIST GRIDDISK ATTRIBUTES name, asmmodestatus
    

    すべてのグリッド・ディスクのasmmodestatusONLINEまたはUNUSEDになるまで待機します。

新しいフラッシュ・ディスクがシステムによって自動的に使用されます。フラッシュ・キャッシュにフラッシュ・ディスクを使用する場合、有効なキャッシュ・サイズが拡張します。グリッド・ディスクにフラッシュ・ディスクを使用する場合、グリッド・ディスクが新しいフラッシュ・ディスクに再作成されます。これらのグリッド・ディスクがOracle ASMディスク・グループの一部である場合、ディスク・グループの冗長性およびASM_POWER_LIMITパラメータに基づいて、ディスクがディスク・グループに追加され、データがリバランスされます。

関連項目:

3.3.3 ソフトウェア・バージョン11.2.3.3.1以上のライトバック・フラッシュ・キャッシュの有効化および無効化

リリース11.2.3.2.1以上では、Exadataスマート・フラッシュ・キャッシュにより、頻繁にアクセスするデータを高速のソリッド状態の記憶装置に透過的にキャッシュして、問合せの応答時間とスループットを向上させることができます。ディスクではなくフラッシュによって処理される書込み操作は、「ライトバック・フラッシュ・キャッシュ」と呼ばれます。この機能は必要に応じて有効または無効にできます。フラッシュ・キャッシュ・モードを変更する場合は、次の点に注意してください。

  • ストレージ・セル・ソフトウェアのリリース11.2.3.3.1以上では、セルのサービスを停止する必要も、グリッド・ディスクを非アクティブ化する必要もありません。

  • ライトバック・フラッシュ・キャッシュを使用するには、GridホームとOracle DatabaseホームがOracle Database 11gリリース11.2.0.3 BP9以上であることが必要です。

注意:

フラッシュ・キャッシュを削除し、再作成すると、キャッシュがウォームアップするまで、データベースの再起動の際にパフォーマンスに影響を与える可能性があります。

この項では、次の項目について説明します。

3.3.3.1 11.2.3.3.1以上でのライトバック・フラッシュ・キャッシュの有効化

ストレージ・サーバーでのライトバック・フラッシュ・キャッシュを有効にして、問合せの応答時間とスループットを向上させます。

注意:

  • リリース11.2.3.3.1以上では、cellsrvプロセスを停止する必要も、グリッド・ディスクを非アクティブ化する必要もありません。

  • アプリケーションのパフォーマンスへの影響を抑えるには、ワークロードが低い期間にライトバック・フラッシュ・キャッシュを有効化します。

  1. フラッシュ・キャッシュを変更する前に、すべての物理ディスクが正常な状態であることを検証します。

    次のコマンドでは行が戻されません。

    # dcli –l root –g cell_group cellcli –e “list physicaldisk attributes name,status”|grep –v NORMAL
  2. フラッシュ・キャッシュを削除します。
    # dcli –l root –g cell_group cellcli -e drop flashcache
  3. flashCacheMode属性をwritebackに設定します。
    # dcli –l root – g cell_group cellcli -e "alter cell flashCacheMode=writeback"
  4. フラッシュ・キャッシュを再作成します。
    # dcli –l root –g cell_group cellcli -e create flashcache all 
  5. flashCacheModewritebackに設定されていることを確認します。
    # dcli –l root –g cell_group cellcli -e list cell detail | grep flashCacheMode
  6. グリッド・ディスク属性のcachingPolicycachedbyを検証します。
    # cellcli –e list griddisk attributes name,cachingpolicy,cachedby

3.3.3.2 11.2.3.3.1以上でのライトバック・フラッシュ・キャッシュの無効化

ストレージ・サーバーでのライトバック・フラッシュ・キャッシュを無効にする必要がある場合は、次の手順を使用します。

注意:

  • リリース11.2.3.3.1以上では、cellsrvプロセスを停止する必要も、グリッド・ディスクを非アクティブ化する必要もありません。

  • アプリケーションのパフォーマンスへの影響を抑えるには、ワークロードが低い期間にライトバック・フラッシュ・キャッシュを無効化します。

  1. フラッシュ・キャッシュを変更する前に、すべての物理ディスクが正常な状態であることを検証します。

    次のコマンドでは行が戻されません。

    # dcli –l root –g cell_group cellcli –e “LIST PHYSICALDISK ATTRIBUTES name,status”|grep –v NORMAL
  2. フラッシュ・キャッシュ内のダーティ・データの量を確認します。
    # cellcli -e "LIST METRICCURRENT ATTRIBUTES name,metricvalue WHERE name LIKE \'FC_BY_DIRTY.*\' "
  3. フラッシュ・キャッシュをフラッシュします。
    # dcli –g cell_group –l root cellcli -e "ALTER FLASHCACHE ALL FLUSH" 
  4. フラッシュ・キャッシュのフラッシュの進捗状況をチェックします。

    FC_BY_DIRTYが0MBになると、フラッシュ・プロセスは完了します。

    # dcli -g cell_group -l root cellcli -e "LIST METRICCURRENT ATTRIBUTES name,metricvalue WHERE name LIKE \'FC_BY_DIRTY.*\' " 

    属性flushstatusCompletedに設定されたかどうかを確認することもできます。

    # dcli -g cell_group -l root cellcli -e "LIST CELLDISK ATTRIBUTES name, flushstatus, flusherror" | grep FD 
  5. フラッシュ・キャッシュのフラッシュが完了した後、フラッシュ・キャッシュを削除します。
    # dcli -g cell_group -l root cellcli -e drop flashcache 
  6. flashCacheMode属性をwritethroughに設定します。
    # dcli -g cell_group -l root cellcli -e "ALTER CELL flashCacheMode=writethrough"
  7. フラッシュ・キャッシュを再作成します。
    # dcli –l root –g cell_group cellcli -e create flashcache all 
  8. flashCacheModewritethroughに設定されていることを確認します。
    # dcli –l root –g cell_group cellcli -e list cell detail | grep flashCacheMode

3.3.4 11.2.3.3.1より前のソフトウェア・バージョンでのライトバック・フラッシュ・キャッシュの有効化および無効化

リリース11.2.3.2.1以上では、Exadataスマート・フラッシュ・キャッシュにより、頻繁にアクセスするデータを高速のソリッド状態の記憶装置に透過的にキャッシュして、問合せの応答時間とスループットを向上させることができます。ディスクではなくフラッシュによって処理される書込み操作は、「ライトバック・フラッシュ・キャッシュ」と呼ばれます。この機能は必要に応じて有効または無効にできます。フラッシュ・キャッシュ・モードを変更する場合は、次の点に注意してください。

  • flashCacheMode属性を変更する前に、セル・サービスをシャットダウンする必要があります。セル・サービスは、ローリング形式または全体シャットダウンとしてシャットダウンできます。

  • 変更をローリング形式で行う場合は、セル・サービスの再同期が完了していることを確認してから、次のセルを変更してください。

  • フラッシュ・キャッシュ・モードをローリング形式で変更する場合は、次のセルに移る前に、現在のセルのすべてのグリッド・ディスクでasmDeactivationOutcome属性がyesに、asmModeStatus属性がonlineになっている必要があります。グリッド・ディスクの属性をチェックするには、次のコマンドを使用します。

    LIST GRIDDISK ATTRIBUTES asmDeactivationOutcome, asmModeStatus
    
  • 変更を非ローリング形式で行う場合は、クラスタ全体を停止してから、変更を開始してください。

  • フラッシュ・キャッシュ・モードを非ローリング形式で変更する場合は、Oracle Clusterware CRSとすべてのデータベースを含め、クラスタ全体を停止してください。

  • ライトバック・フラッシュ・キャッシュを使用するには、GridホームとOracle DatabaseホームがOracle Database 11gリリース11.2.0.3 BP9以上であることが必要です。

注意:

フラッシュ・キャッシュを削除し、再作成すると、キャッシュがウォームアップするまで、データベースの再起動の際にパフォーマンスに影響を与える可能性があります。

この項では、次の項目について説明します。

3.3.4.1 ローリング形式でのライトバック・フラッシュ・キャッシュの有効化

属性をwritethroughからwritebackに変更する場合は、属性を変更する前にフラッシュ・キャッシュを削除する必要があります。次の手順では、ライトバック・フラッシュ・キャッシュをローリング形式で有効にする方法について説明します。

注意:

ライトバック・フラッシュ・キャッシュの有効化と無効化を自動化するためのシェル・スクリプトが用意されています。スクリプトおよび詳細は、My Oracle Supportノート1500257.1を参照してください。

関連項目:

My Oracle Supportノート888828.1には、Oracle Exadata Storage Server Software、Grid InfrastructureホームおよびOracle Databaseホームの最小リリース要件がまとめられています。

  1. ライトバック・フラッシュ・キャッシュを有効にする最初のセルにrootユーザーとしてログインします。
  2. 次のコマンドを使用して、フラッシュ・キャッシュが正常であり、フラッシュ・ディスクの機能低下やクリティカル状態が発生していないことを確認します。
    # cellcli -e LIST FLASHCACHE detail
    
  3. 次のコマンドを使用して、セルのフラッシュ・キャッシュを削除します。
    # cellcli -e DROP FLASHCACHE
    
  4. 次のコマンドを使用して、セルのグリッド・ディスクを非アクティブ化します。
    # cellcli -e ALTER GRIDDISK ALL INACTIVE
    
  5. 次のコマンドを使用して、CELLSRVサービスを停止します。
    # cellcli -e ALTER CELL SHUTDOWN SERVICES CELLSRV
    
  6. 次のコマンドを使用して、flashCacheMode属性をwritebackに設定します。
    # cellcli -e "ALTER CELL FLASHCACHEMODE=writeback"
    
  7. 次のコマンドを使用して、セル・サービスを再起動します。
    # cellcli -e ALTER CELL STARTUP SERVICES CELLSRV
    
  8. 次のコマンドを使用して、セルのグリッド・ディスクを再アクティブ化します。
    # cellcli -e ALTER GRIDDISK ALL ACTIVE
    
  9. 次のコマンドを使用して、フラッシュ・キャッシュを再作成します。
    # cellcli -e CREATE FLASHCACHE ALL
    
  10. 次のコマンドを使用して、セルのステータスをチェックします。
    # cellcli -e LIST CELL DETAIL | grep flashCacheMode
    

    flashCacheMode属性がwritebackに設定されている必要があります。

  11. 次のセルに移る前に、次のコマンドを使用して、グリッド・ディスクのasmDeactivationOutcome属性とasmModeStatus属性をチェックします。
    CellCLI> LIST GRIDDISK ATTRIBUTES name,asmdeactivationoutcome,asmmodestatus
    

    asmDeactivationOutcome属性がyesに、asmModeStatus属性がonlineになっている必要があります。

  12. 次のセルに対して前述の手順を繰り返します。

3.3.4.2 非ローリング形式でのライトバック・フラッシュ・キャッシュの有効化

属性をwritethroughからwritebackに変更する場合は、属性を変更する前にフラッシュ・キャッシュを削除する必要があります。次の手順では、ライトバック・フラッシュ・キャッシュを非ローリング形式で有効にする方法について説明します。

注意:

ライトバック・フラッシュ・キャッシュの有効化と無効化を自動化するためのシェル・スクリプトが用意されています。スクリプトおよび詳細は、My Oracle Supportノート1500257.1を参照してください。

関連項目:

My Oracle Supportノート888828.1には、Oracle Exadata Storage Server Software、Grid InfrastructureホームおよびOracle Databaseホームの最小リリース要件がまとめられています。

  1. データベース・ノードにrootユーザーとしてログインします。
  2. 次のコマンドを使用して、クラスタ全体を停止します。
    # cd $GI_HOME/bin
    # ./crsctl stop cluster -all
    
  3. 次のコマンドを使用して、すべてのセルのフラッシュ・キャッシュを削除します。
    # dcli -g cell_group -l root cellcli -e DROP FLASHCACHE
    
  4. 次のコマンドを使用して、CELLSRVサービスを停止します。
    # dcli -g cell_group -l root cellcli -e ALTER CELL SHUTDOWN SERVICES CELLSRV
    
  5. フラッシュ・キャッシュがwritethroughモードに設定されていることを確認します。
    # dcli -g cell_group -l root "cellcli -e list cell detail | grep -i flashcachemode"
    
  6. 次のコマンドを使用して、flashCacheMode属性をwritebackに設定します。
    # dcli -g cell_group -l root cellcli -e "ALTER CELL FLASHCACHEMODE=writeback"
    
  7. 次のコマンドを使用して、セル・サービスを再起動します。
    # dcli -g cell_group -l root cellcli -e ALTER CELL STARTUP SERVICES CELLSRV
    
  8. 次のコマンドを使用して、フラッシュ・キャッシュを再作成します。
    # dcli -g cell_group -l root cellcli -e CREATE FLASHCACHE ALL
    
  9. クラスタを再起動します。
    # cd $GI_HOME/bin
    # ./crsctl start cluster -all

3.3.4.3 ローリング形式でのライトバック・フラッシュ・キャッシュの無効化

flashCacheMode属性をwritebackからwritethroughに変更したときに、既存のフラッシュ・キャッシュが存在していると、エラーが表示されます。属性をwritethroughに変更する前に、フラッシュ・キャッシュをフラッシュして削除する必要があります。フラッシュ操作が開始されると、フラッシュ・キャッシュへのすべてのキャッシュが停止されます。次の手順では、ライトバック・フラッシュ・キャッシュをローリング形式で無効にする方法について説明します。

注意:

ライトバック・フラッシュ・キャッシュの有効化と無効化を自動化するためのシェル・スクリプトが用意されています。スクリプトおよび詳細は、My Oracle Supportノート1500257.1を参照してください。

  1. ライトバック・フラッシュ・キャッシュを無効にする最初のセルにrootユーザーとしてログインします。

  2. 次のコマンドを使用して、セルのすべてのグリッド・ディスクのasmDeactivationOutcome属性がyesになっていることを確認します。

    # dcli -g cell_group -l root cellcli -e "LIST GRIDDISK WHERE   \
     asmdeactivationoutcome != 'Yes' attributes name, asmdeactivationoutcome, \
    asmmodestatus"
    

    グリッド・ディスクが返された場合は、手順を進める前にこの問題を解決する必要があります。

  3. 次のコマンドを使用して、フラッシュ・キャッシュ内のダーティ・データの量をチェックします。

    # dcli -g cell_group -l root cellcli -e "LIST METRICCURRENT ATTRIBUTES  \
    name,metricvalue WHERE name LIKE \'FC_BY_DIRTY.*\'"
    
  4. 次のコマンドを使用して、フラッシュ・キャッシュをフラッシュします。

    # dcli -g cell_group -l root cellcli -e ALTER FLASHCACHE ALL FLUSH
    
  5. 次のコマンドを使用して、フラッシュ・キャッシュのステータスをチェックします。

    # dcli -g cell_group -l root cellcli -e LIST CELLDISK ATTRIBUTES name, \
    flushstatus, flusherror | grep FD 
    

    フラッシュが完了すると、ステータスがcompletedになります。

  6. 1セルずつ、すべてのセルに次の一連の手順を実行します。つまり、すべてのセルが完了するまで、1つのセルに手順(a)から(i)を実行した後、別のセルにそれらを実行します。

    1. 次のコマンドを使用して、フラッシュ・キャッシュを削除します。

      # cellcli -e DROP FLASHCACHE
      
    2. 次のコマンドを使用して、セルのグリッド・ディスクをすべて非アクティブ化します。

      # cellcli -e ALTER GRIDDISK ALL INACTIVE
      
    3. 次のコマンドを使用して、CELLSRVサービスを停止します。

      # cellcli -e ALTER CELL SHUTDOWN SERVICES CELLSRV
      
    4. 次のコマンドを使用して、flashCacheMode属性をwritethroughに設定します。

      # cellcli -e "ALTER CELL FLASHCACHEMODE=writethrough"
      
    5. 次のコマンド使用して、セル・サービスを再起動します。

      # cellcli -e ALTER CELL STARTUP SERVICES CELLSRV
      
    6. 次のコマンドを使用して、セルのグリッド・ディスクを再アクティブ化します。

      # cellcli -e ALTER GRIDDISK ALL ACTIVE
      
    7. 次のコマンドを使用して、フラッシュ・キャッシュを再作成します。

      # cellcli -e CREATE FLASHCACHE ALL
      
    8. 次のコマンドを使用して、セルのステータスをチェックします。

      # cellcli -e LIST CELL DETAIL | grep flashCacheMode
      
    9. 次のコマンドを使用して、グリッド・ディスクのasmDeactivationOutcome属性とasmModeStatus属性をチェックします。

      # cellcli -e LIST GRIDDISK ATTRIBUTES name,status,asmdeactivationoutcome,asmmodestatus
      

      asmDeactivationOutcome属性がyesに、asmModeStatus属性がonlineになっている必要があります。

      ディスク・ステータスがSYNCINGの場合は、続行せずにACTIVEになるまで待ちます。

3.3.4.4 非ローリング形式でのライトバック・フラッシュ・キャッシュの無効化

flashCacheMode属性をwritebackからwritethroughに変更したときに、既存のフラッシュ・キャッシュが存在していると、エラーが表示されます。属性をwritethroughに変更する前に、フラッシュ・キャッシュをフラッシュして削除する必要があります。フラッシュ操作が開始されると、フラッシュ・キャッシュへのすべてのキャッシュが停止されます。次の手順では、ライトバック・フラッシュ・キャッシュを非ローリング形式で無効にする方法について説明します。

注意:

  • ライトバック・フラッシュ・キャッシュの有効化と無効化を自動化するためのシェル・スクリプトが用意されています。スクリプトおよび詳細は、My Oracle Supportノート1500257.1を参照してください。

  • フラッシュ・キャッシュのフラッシュ操作は、クラスタ全体を停止する前に実行できます。

  1. ライトバック・フラッシュ・キャッシュを無効にする最初のデータベース・ノードにrootユーザーとしてログインします。
  2. 次のコマンドを使用して、フラッシュ・キャッシュ内のダーティ・データの量をチェックします。
    # dcli -g cell_group -l root cellcli -e "LIST METRICCURRENT ATTRIBUTES  \
            name,metricvalue WHERE name LIKE \'FC_BY_DIRTY.*\'"
    
  3. 次のコマンドを使用して、フラッシュ・キャッシュをフラッシュします。
    # dcli -g cell_group -l root cellcli -e ALTER FLASHCACHE ALL FLUSH
    
  4. 次のコマンドを使用して、ブロックがディスクに移動されたときのステータスをチェックします。件数はゼロまで減ります。
    # dcli -g cell_group -l root cellcli -e "LIST METRICCURRENT ATTRIBUTES name, \
           metricvalue WHERE NAME LIKE \'FC_BY_DIRTY.*\'"
    
  5. 次のコマンドを使用して、フラッシュ・ディスクのステータスをチェックします。
    # dcli -g cell_group -l root cellcli -e LIST CELLDISK ATTRIBUTES name, flushstatus, flusherror | grep FD 
    

    フラッシュが完了すると、ステータスがcompletedになります。

  6. 次のコマンドを使用して、データベースとクラスタ全体を停止します。
    # cd $GI_HOME/bin
    # ./crsctl stop cluster -all
    
  7. 次のコマンドを使用して、すべてのセルのフラッシュ・キャッシュを削除します。
    # dcli -g cell_group -l root cellcli -e DROP FLASHCACHE
    
  8. 次のコマンドを使用して、CELLSRVサービスを停止します。
    # dcli -g cell_group -l root cellcli -e ALTER CELL SHUTDOWN SERVICES CELLSRV
    
  9. 次のコマンドを使用して、flashCacheMode属性をwritethroughに設定します。
    # dcli -g cell_group -l root cellcli -e "ALTER CELL FLASHCACHEMODE=writethrough"
    
  10. 次のコマンドを使用して、セル・サービスを再起動します。
    # dcli -g cell_group -l root cellcli -e ALTER CELL STARTUP SERVICES CELLSRV
    
  11. 次のコマンドを使用して、フラッシュ・キャッシュを再作成します。
    # dcli -g cell_group -l root cellcli -e CREATE FLASHCACHE ALL
    
  12. 次のコマンドを使用して、セルのフラッシュ・キャッシュ・モードをチェックします。
    # dcli -g cell_group -l root cellcli -e LIST CELL DETAIL | grep flashCacheMode
    
  13. 次のコマンドを使用して、クラスタとデータベースを再起動します。
    # cd $GI_HOME/bin
    # ./crsctl start cluster -all
    

3.3.5 フラッシュ・キャッシュの圧縮の有効化

Oracle Exadata Database Machine X4-2、Oracle Exadata Database Machine X3-2およびOracle Exadata Database Machine X3-8フル・ラックの各システムでは、フラッシュ・キャッシュの圧縮を有効にできます。Oracle Exadata Database Machine X5-2およびX5-8にフラッシュ・キャッシュの圧縮機能はありません。フラッシュ・キャッシュの圧縮では、ユーザー・データがフラッシュ・キャッシュにロードされる際にデータを透過的に圧縮することによって、フラッシュ・キャッシュの論理容量が大幅に増加します。

注意:

  • フラッシュ・キャッシュ圧縮を有効にするには、Oracle拡張圧縮オプションが必要です。

  • フラッシュ・キャッシュの圧縮を有効にした場合、ユーザー・データは保持されません。

次の手順では、フラッシュ・キャッシュの圧縮を有効にする方法について説明します。

  1. この手順は、ライトバック・フラッシュ・キャッシュが有効化されている場合にのみ実行します。ライトバック・フラッシュ・キャッシュが無効の場合は、この手順をスキップします。ライトバック・フラッシュ・キャッシュが無効の場合にこの手順を実行すると、エラー・メッセージが表示される場合があります。次のコマンドを実行してフラッシュ・キャッシュ・モードを確認できます。
    # cellcli -e LIST CELL DETAIL | grep flashCacheMode

    ライトバック・フラッシュ・キャッシュが有効化されている場合に、次のコマンドを使用して、フラッシュ・セル・ディスクにユーザー・データを保存します。

    # cellcli -e ALTER FLASHCACHE all flush
    
  2. 次のコマンドを使用して、セルからフラッシュ・キャッシュを削除します。
    # cellcli -e DROP FLASHCACHE all
    
  3. 次のコマンドを使用して、セルからフラッシュ・ログを削除します。
    # cellcli -e DROP FLASHLOG all
    
  4. 次のコマンドを使用して、セル・フラッシュ・ディスクを削除します。
    # cellcli -e DROP CELLDISK all flashdisk
    
  5. システムに応じて、次のコマンドを使用してフラッシュ・キャッシュの圧縮を有効にします。
    • Sun Fire X4170 Oracle Database Server、およびExadata Storage Server X4-2L Serverを使用したOracle Exadata Database Machine X3-2の場合:

      # cellcli -e ALTER CELL flashcachecompress=true
      
    • Oracle Exadata Database Machine X3-2、およびExadata Storage Server X3-2 Serverを使用したOracle Exadata Database Machine X3-8フル・ラックの場合:

      # cellcli -e ALTER CELL flashCacheCompX3Support=true
      # cellcli -e ALTER CELL flashCacheCompress=true
      
  6. 次のコマンドを使用して、セル・フラッシュ・ディスクを作成します。
    # cellcli -e CREATE CELLDISK all flashdisk
    CellDisk FD_00_exampleceladm18 successfully created
    ...
    CellDisk FD_15_exampleceladm18 successfully created 
    
  7. 次のコマンドを使用して、フラッシュ・ログを作成します。
    # cellcli -e CREATE FLASHLOG all
    Flash log RaNdOmceladm18_FLASHLOG successfully created 
    
  8. 次のコマンドを使用して、セルでフラッシュ・キャッシュを作成します。
    # cellcli -e CREATE FLASHCACHE all
    Flash cache exampleceladm18_FLASHCACHE successfully created
    

3.3.6 フラッシュ・キャッシュの圧縮の無効化

Oracle Exadata Database Machine X4-2、Oracle Exadata Database Machine X3-2およびOracle Exadata Database Machine X3-8フル・ラックの各システムでは、フラッシュ・キャッシュの圧縮を無効にできます。Oracle Exadata Database Machine X5-2およびX5-8にフラッシュ・キャッシュの圧縮機能はありません。

注意:

  • フラッシュ・キャッシュの圧縮を無効にした場合、ユーザー・データは保持されません。

次の手順では、フラッシュ・キャッシュの圧縮を無効にする方法について説明します。

  1. 次のコマンドを使用して、フラッシュ・セル・ディスクにユーザー・データを保存します。
    # cellcli -e ALTER FLASHCACHE all flush
    
  2. 次のコマンドを使用して、セルからフラッシュ・キャッシュを削除します。
    # cellcli -e DROP FLASHCACHE all
    
  3. 次のコマンドを使用して、セルからフラッシュ・ログを削除します。
    # cellcli -e DROP FLASHLOG all
    
  4. 次のコマンドを使用して、セル・フラッシュ・ディスクを削除します。
    # cellcli -e DROP CELLDISK all flashdisk
    
  5. システムに応じて、次のコマンドを使用してフラッシュ・キャッシュの圧縮を無効にします。
    • Sun Fire X4170 Oracle Database Server、およびExadata Storage Server X4-2L Serverを使用したOracle Exadata Database Machine X3-2の場合:

      # cellcli -e ALTER CELL flashcachecompress=false
      
    • Oracle Exadata Database Machine X3-2、およびExadata Storage Server X3-2 Serverを使用したOracle Exadata Database Machine X3-8フル・ラックの場合:

      # cellcli -e ALTER CELL flashCacheCompX3Support=true
      # cellcli -e ALTER CELL flashCacheCompress=false
      

      注意:

      flashCacheCompressfalseに設定しますが、flashCacheCompX3Supporttrueに設定する必要があります。

  6. 次のコマンドを使用して、セル・フラッシュ・ディスクを作成します。
    # cellcli -e CREATE CELLDISK all flashdisk
    CellDisk FD_00_exampleceladm18 successfully created
    ...
    CellDisk FD_15_exampleceladm18 successfully created 
    
  7. 次のコマンドを使用して、フラッシュ・ログを作成します。
    # cellcli -e CREATE FLASHLOG all
    Flash log RaNdOmceladm18_FLASHLOG successfully created 
    
  8. 次のコマンドを使用して、セルでフラッシュ・キャッシュを作成します。
    # cellcli -e CREATE FLASHCACHE all
    Flash cache exampleceladm18_FLASHCACHE successfully created
    
  9. フラッシュ・キャッシュの圧縮が無効になっていることを確認します。
    # cellcli -e LIST CELL
    

    flashCacheCompress属性の値がfalseに設定されている必要があります。

3.4 グリッド・ディスクのサイズ変更

グリッド・ディスクとOracle ASMディスク・グループのサイズを変更して、空き領域が多すぎるディスクはサイズを減らしたり、最大容量に近いディスクはサイズを増やしたりできます。

Oracle Exadata Database Machineのディスク・グループ・サイズの初期構成は、Oracleベスト・プラクティスおよびバックアップ・ファイルの場所に基づきます。内部バックアップの場合、割当てられる領域はDATAディスク・グループで40%、RECOディスク・グループで60%です。外部バックアップの場合、割当てられる領域はDATAディスク・グループで80%、RECOディスク・グループで20%です。ディスク・グループの割当ては、デプロイ後に変更できます。たとえば、DATAディスク・グループの割当てが60%では小さすぎるため、80%にサイズ変更する必要が生じる場合があります。

システムで、セル・ディスクに空き領域がないが、1つのディスク・グループ(たとえばRECO)には十分な空き領域がある場合、RECOディスク・グループのサイズを小さくして、空き領域をDATAディスク・グループに再割当てすることができます。RECOディスク・グループを縮小した後で得られる空き領域は、DATAディスク・グループの既存の領域割当てとは連続しないオフセットにあります。グリッド・ディスクは、セル・ディスク上のどこにある領域でも使用することができ、連続している必要はありません。

グリッド・ディスクを拡張しようとするとき、十分な領域がセル・ディスクにすでにあり、既存のグリッド・ディスクを拡張できる場合には、最初に既存のディスク・グループをサイズ変更する必要はありません。RECOディスク・グループとグリッド・ディスクの縮小について説明している手順2と3は省略することもできます(ただし、DATAグリッド・ディスクを拡張する前に十分な空き領域があることを確認する必要はあります)。管理者が確保する必要がある空き領域の量は、障害時の補償範囲のレベルによって異なります。

グリッド・ディスクのサイズを縮小する場合は、ミラー化のために領域を確保する方法を理解する必要があります。データは、標準または高冗長性を使用してOracle ASMによって保護され、ファイル・エクステントとして保存される1つまたは2つのデータのコピーが作成されます。これらのコピーは、個別の障害グループに保存されます。1つの障害グループで障害が発生しても、ミラー・コピーには影響がないため、データにはまだアクセスできます。障害が発生すると、アクセスできないエクステントがOracle ASMによって再ミラー化(リバランスとも呼ばれる)されるため、冗長性が再確立されます。プロセスの再ミラー化を成功するには、新しいファイル・エクステントのミラー・コピーの作成に十分な空き領域がディスク・グループに存在する必要があります。十分な空き領域がないと、一部のエクステントが再ミラー化されず、他のデータ・コピーで後で障害が発生した場合に、ディスク・グループをバックアップからリストアする必要があります。領域の不足により再ミラー化プロセスが失敗すると、Oracle ASMはエラーを送信します。

Oracle Exadata Storage Server Softwareリリース12.1.2.1.0以上を使用するか、Oracle Bug#19695225のパッチをソフトウェアに適用する必要があります。

グリッド・ディスクのサイズを変更するこの手順は、ベア・メタルおよび仮想マシン(VM)デプロイメントに適用されます。

  1. 使用可能な領域の容量の判別
  2. ドナー・ディスク・グループのOracle ASMディスクの縮小
  3. ドナー・ディスク・グループのグリッド・ディスクの縮小
  4. 使用可能な領域によるグリッド・ディスクのサイズの拡張
  5. Oracle ASMディスクのサイズの拡張

3.4.1 使用可能な領域の容量の判別

ディスク・グループ内のディスクのサイズを増やすには、未割当てのディスク領域があるか、別のディスク・グループが現在使用している領域を再割当てする必要があります。

  1. ディスク・グループによって現在使用されている領域を表示します。
    SELECT name, total_mb, free_mb, total_mb - free_mb used_mb, round(100*free_mb/total_mb,2) pct_free
    FROM v$asm_diskgroup
    ORDER BY 1;
    
    NAME                             TOTAL_MB    FREE_MB    USED_MB   PCT_FREE
    ------------------------------ ---------- ---------- ---------- ----------
    DATAC1                           68812800    9985076   58827724      14.51
    RECOC1                           94980480   82594920   12385560      86.96

    この例では、DATAC1ディスク・グループには空き領域が約15%しかありませんが、RECOC1ディスク・グループには約87%の空きディスク領域があります。ここに表示されているPCT_FREEは未加工の空き領域です。使用できる空き領域ではありません。リバランス操作のためには追加の領域が必要です。

  2. サイズを変更しようとするディスク・グループについて、ディスク・グループによって使用される障害グループの数とステータスを表示します。
    SELECT dg.name, d.failgroup, d.state, d.header_status, d.mount_mode, 
     d.mode_status, count(1) num_disks
    FROM V$ASM_DISK d, V$ASM_DISKGROUP dg
    WHERE d.group_number = dg.group_number
    AND dg.name IN ('RECOC1', 'DATAC1')
    GROUP BY dg.name, d.failgroup, d.state, d.header_status, d.mount_status,
      d.mode_status
    ORDER BY 1, 2, 3;
    
    NAME       FAILGROUP      STATE      HEADER_STATU MOUNT_S  MODE_ST  NUM_DISKS
    ---------- -------------  ---------- ------------ -------- -------  ---------
    DATAC1     EXA01CELADM01  NORMAL     MEMBER        CACHED  ONLINE   12
    DATAC1     EXA01CELADM02  NORMAL     MEMBER        CACHED  ONLINE   12
    DATAC1     EXA01CELADM03  NORMAL     MEMBER        CACHED  ONLINE   12
    DATAC1     EXA01CELADM04  NORMAL     MEMBER        CACHED  ONLINE   12
    DATAC1     EXA01CELADM05  NORMAL     MEMBER        CACHED  ONLINE   12
    DATAC1     EXA01CELADM06  NORMAL     MEMBER        CACHED  ONLINE   12
    DATAC1     EXA01CELADM07  NORMAL     MEMBER        CACHED  ONLINE   12
    DATAC1     EXA01CELADM08  NORMAL     MEMBER        CACHED  ONLINE   12
    DATAC1     EXA01CELADM09  NORMAL     MEMBER        CACHED  ONLINE   12
    DATAC1     EXA01CELADM10  NORMAL     MEMBER        CACHED  ONLINE   12
    DATAC1     EXA01CELADM11  NORMAL     MEMBER        CACHED  ONLINE   12
    DATAC1     EXA01CELADM12  NORMAL     MEMBER        CACHED  ONLINE   12
    DATAC1     EXA01CELADM13  NORMAL     MEMBER        CACHED  ONLINE   12
    DATAC1     EXA01CELADM14  NORMAL     MEMBER        CACHED  ONLINE   12
    RECOC1     EXA01CELADM01  NORMAL     MEMBER        CACHED  ONLINE   12
    RECOC1     EXA01CELADM02  NORMAL     MEMBER        CACHED  ONLINE   12
    RECOC1     EXA01CELADM03  NORMAL     MEMBER        CACHED  ONLINE   12
    RECOC1     EXA01CELADM04  NORMAL     MEMBER        CACHED  ONLINE   12
    RECOC1     EXA01CELADM05  NORMAL     MEMBER        CACHED  ONLINE   12
    RECOC1     EXA01CELADM06  NORMAL     MEMBER        CACHED  ONLINE   12
    RECOC1     EXA01CELADM07  NORMAL     MEMBER        CACHED  ONLINE   12
    RECOC1     EXA01CELADM08  NORMAL     MEMBER        CACHED  ONLINE   12
    RECOC1     EXA01CELADM09  NORMAL     MEMBER        CACHED  ONLINE   12
    RECOC1     EXA01CELADM10  NORMAL     MEMBER        CACHED  ONLINE   12
    RECOC1     EXA01CELADM11  NORMAL     MEMBER        CACHED  ONLINE   12
    RECOC1     EXA01CELADM12  NORMAL     MEMBER        CACHED  ONLINE   12
    RECOC1     EXA01CELADM13  NORMAL     MEMBER        CACHED  ONLINE   12
    RECOC1     EXA01CELADM14  NORMAL     MEMBER        CACHED  ONLINE   12
    

    この例は、フル・ラック(DATAC1とRECOC1に対して14個のセルと14個の障害グループがある)のものです。各障害グループにNORMAL状態のディスクが12個以上(num_disks)あることを確認します。MISSINGと表示されるディスクがある場合、または構成で予期しない数のディスクが表示される場合は、問題を解決してから続きを行います。

    Extreme Flash (EF)システムでは、ディスク数としてnum_disksに12ではなく8が表示されます。

  3. 各セルと各障害グループに関連付けられた対応するグリッド・ディスクを表示して、サイズ変更するグリッド・ディスクを確認します。
    SELECT dg.name, d.failgroup, d.path
    FROM V$ASM_DISK d, V$ASM_DISKGROUP dg
    WHERE d.group_number = dg.group_number
    AND dg.name IN ('RECOC1', 'DATAC1')
    ORDER BY 1, 2, 3;
    
    NAME        FAILGROUP      PATH
    ----------- -------------  ----------------------------------------------
    DATAC1      EXA01CELADM01  o/192.168.74.43/DATAC1_CD_00_exa01celadm01
    DATAC1      EXA01CELADM01  o/192.168.74.43/DATAC1_CD_01_exa01celadm01
    DATAC1      EXA01CELADM01  o/192.168.74.43/DATAC1_CD_02_exa01celadm01
    DATAC1      EXA01CELADM01  o/192.168.74.43/DATAC1_CD_03_exa01celadm01
    DATAC1      EXA01CELADM01  o/192.168.74.43/DATAC1_CD_04_exa01celadm01
    DATAC1      EXA01CELADM01  o/192.168.74.43/DATAC1_CD_05_exa01celadm01
    DATAC1      EXA01CELADM01  o/192.168.74.43/DATAC1_CD_06_exa01celadm01
    DATAC1      EXA01CELADM01  o/192.168.74.43/DATAC1_CD_07_exa01celadm01
    DATAC1      EXA01CELADM01  o/192.168.74.43/DATAC1_CD_08_exa01celadm01
    DATAC1      EXA01CELADM01  o/192.168.74.43/DATAC1_CD_09_exa01celadm01
    DATAC1      EXA01CELADM01  o/192.168.74.43/DATAC1_CD_10_exa01celadm01
    DATAC1      EXA01CELADM01  o/192.168.74.43/DATAC1_CD_11_exa01celadm01
    DATAC1      EXA01CELADM02  o/192.168.74.44/DATAC1_CD_00_exa01celadm01
    DATAC1      EXA01CELADM02  o/192.168.74.44/DATAC1_CD_01_exa01celadm01
    DATAC1      EXA01CELADM02  o/192.168.74.44/DATAC1_CD_02_exa01celadm01
    ...
    RECOC1      EXA01CELADM13  o/192.168.74.55/RECOC1_CD_00_exa01celadm13
    RECOC1      EXA01CELADM13  o/192.168.74.55/RECOC1_CD_01_exa01celadm13
    RECOC1      EXA01CELADM13  o/192.168.74.55/RECOC1_CD_02_exa01celadm13
    ...
    RECOC1      EXA01CELADM14  o/192.168.74.56/RECOC1_CD_09_exa01celadm14
    RECOC1      EXA01CELADM14  o/192.168.74.56/RECOC1_CD_10_exa01celadm14
    RECOC1      EXA01CELADM14  o/192.168.74.56/RECOC1_CD_11_exa01celadm14  
    
    168 rows returned.
  4. 使用可能な空き領域をセル・ディスクで調べます。
    セル・ディスク上の空き領域は、DATAC1グリッド・ディスクのサイズを増やすために使用できます。DATAC1グリッド・ディスクを拡張するために十分な空き領域がない場合は、RECOC1グリッド・ディスクを縮小して、DATAC1グリッド・ディスクの望ましいサイズを実現するために空き領域を提供する必要があります。 
    [root@exa01adm01 tmp]# dcli -g ~/cell_group -l root "cellcli -e list celldisk \
      attributes name,freespace" 
    exa01celadm01: CD_00_exa01celadm01 0 
    exa01celadm01: CD_01_exa01celadm01 0 
    exa01celadm01: CD_02_exa01celadm01 0 
    exa01celadm01: CD_03_exa01celadm01 0 
    exa01celadm01: CD_04_exa01celadm01 0 
    exa01celadm01: CD_05_exa01celadm01 0 
    exa01celadm01: CD_06_exa01celadm01 0 
    exa01celadm01: CD_07_exa01celadm01 0 
    exa01celadm01: CD_08_exa01celadm01 0 
    exa01celadm01: CD_09_exa01celadm01 0 
    exa01celadm01: CD_10_exa01celadm01 0 
    exa01celadm01: CD_11_exa01celadm01 0 
    ...

    この例では空き領域がないため、最初にRECOC1グリッド・ディスクを縮小してDATAC1グリッド・ディスクのための領域を提供する必要があります。構成に使用可能な空き領域が豊富にある場合は、RECOC1グリッド・ディスクを縮小するかわりにその空き領域を使用できます。

  5. RECOC1ディスク・グループと各グリッド・ディスクを縮小する領域の容量を計算します。

    手順1に表示されている出力例では、RECOC1には豊富な空き領域があり、DATAC1の空き領域は15%未満でした。そこで、RECOC1を縮小して、解放されたディスク領域をDATAC1に提供します。RECOC1を現在のサイズの半部に縮小する場合、新しいサイズは94980480 / 2 = 47490240MBになります。

    手順2の問合せでは、RECOC1に168個のグリッド・ディスクがあることがわかりました。14個のセルがあり、セルごとに12個のディスクがあるためです(14 * 12 = 168)。RECOC1ディスク・グループの各グリッド・ディスクの新しいサイズの見積もりは、47490240 / 168すなわち282,680MBです。

    新しいグリッド・ディスク・サイズに最も近い16MBごとの境界を調べます。このチェックを実行しないと、セルによって、最も近い16MBごとの境界にグリッド・ディスク・サイズが自動的に切り下げられるため、Oracle ASMディスクとグリッド・ディスクの間でサイズの不一致が発生することがあります。

    SQL> SELECT 16*TRUNC(&new_disk_size/16) new_disk_size FROM dual;
    Enter value for new_disk_size: 282680
    
    NEW_DISK_SIZE
    -------------
           282672

    前述の結果に基づいて、RECOC1ディスク・グループのグリッド・ディスクの新しいサイズとして282672MBを選択することをお薦めします。グリッド・ディスクのサイズを変更すると、RECOC1ディスク・グループのサイズは47488896MBになります。

  6. DATAC1ディスク・グループの各グリッド・ディスクのサイズをどれだけ増やすかを計算します。

    Oracle ASMディスクのサイズとグリッド・ディスクのサイズがディスク・グループ全体で一致するようにします。次の問合せによって、各ディスク・グループのディスク・サイズの組合せが表示されます。理想は、すべてのディスクについて1つのサイズが見つかり、Oracle ASMディスク(total_mb)とグリッド・ディスク(os_mb)のサイズが一致することです。

    SELECT dg.name, d.total_mb, d.os_mb, count(1) num_disks
    FROM v$asm_diskgroup dg, v$asm_disk d
    WHERE dg.group_number = d.group_number
    GROUP BY dg.name, d.total_mb, d.os_mb;
    
    NAME                             TOTAL_MB      OS_MB  NUM_DISKS
    ------------------------------ ---------- ---------- ----------
    DATAC1                             409600     409600        168
    RECOC1                             565360     565360        168
    

    RECOC1のグリッド・ディスクを縮小した後で、DATAC1の各ディスクに次の領域が提供されます。

    DATAC1ディスクの追加領域 = RECOC1_current_size - RECOC1_new_size
                                                           = 565360 - 282672 = 282688MB

    DATAC1ディスク・グループの新しいサイズを計算するには、次を使用します。

    DATAC1のディスクの新しいサイズ  = DATAC1_ disks_current_size + new_free_space_from_RECOC1
                                              = 409600 + 282688 = 692288MB

    新しいグリッド・ディスク・サイズに最も近い16MBごとの境界を調べます。このチェックを実行しないと、セルによって、最も近い16MBごとの境界にグリッド・ディスク・サイズが自動的に切り下げられるため、Oracle ASMディスクとグリッド・ディスクの間でサイズの不一致が発生することがあります。

    SQL> SELECT 16*TRUNC(&new_disk_size/16) new_disk_size FROM dual;
    Enter value for new_disk_size: 692288
    
    NEW_DISK_SIZE
    -------------
           692288

    問合せの結果に基づいて、DATAC1ディスク・グループのディスクについて計算したサイズ692288MBを使用できます。このサイズは16MBごとの境界に合っています。問合せの結果が指定した値と異なる場合は、問合せから返された値を使用する必要があります。セルによってこの値のグリッド・ディスク・サイズに切り上げ(または切り捨て)られるためです。

    新しいグリッド・ディスク・サイズの計算値から、DATAC1ディスク・グループの合計サイズは116304384MB (168ディスク * 692288MB)になります。

3.4.2 ドナー・ディスク・グループのOracle ASMディスクの縮小

セル・ディスク上に使用可能な空き領域がない場合は、あるディスク・グループが使用する領域を減らして、別のディスク・グループに追加のディスク領域を提供することができます。

このタスクは、RECOC1ディスク・グループの領域をDATAC1ディスク・グループに再割当てする例の続きです。
ディスク・グループのサイズを変更する前に、領域を減らすディスク・グループに十分な空き領域があることを確認します。
  1. RECOディスク・グループのOracle ASMディスクを縮小して、すべてのディスクが新しい目標サイズになるようにします。

    RECOディスク・グループのディスクの新しいサイズとして、「使用可能な領域の容量の判別」の手順5で計算したものを使用します。

    SQL> alter diskgroup RECOC1 resize all size 282672M rebalance power 64;

    注意:

    ALTER DISKGROUPコマンドは完了するまでに数分間かかることがあります。この処理が完了するまで、SQLプロンプトは表示されません。

    リバランスが終了するまで待機してから、ビューGV$ASM_OPERATIONをチェックします。

    SQL> set lines 250 pages 1000
    SQL> col error_code form a10
    SQL> SELECT dg.name, o.*
      2  FROM gv$asm_operation o, v$asm_diskgroup dg
      3  WHERE o.group_number = dg.group_number;

    GV$ASM_OPERATIONへの問合せで、変更中のディスク・グループの行が表示されない場合のみ、次の手順に進みます。

  2. 次の問合せを使用してASMディスクの新しいサイズを確認します。
    SQL> SELECT name, total_mb, free_mb, total_mb - free_mb used_mb,
      2   round(100*free_mb/total_mb,2) pct_free
      3  FROM v$asm_diskgroup
      4  ORDER BY 1;
    
    NAME                             TOTAL_MB    FREE_MB    USED_MB   PCT_FREE
    ------------------------------ ---------- ---------- ---------- ----------
    DATAC1                           68812800    9985076   58827724      14.51
    RECOC1                           47488896   35103336   12385560      73.92
    
    SQL> SELECT dg.name, d.total_mb, d.os_mb, count(1) num_disks
      2  FROM v$asm_diskgroup dg, v$asm_disk d
      3  WHERE dg.group_number = d.group_number
      4  GROUP BY dg.name, d.total_mb, d.os_mb;
    
    NAME                             TOTAL_MB      OS_MB  NUM_DISKS
    ------------------------------ ---------- ---------- ----------
    DATAC1                             409600     409600        168
    RECOC1                             282672     565360        168

    前述の問合せの例では、RECOC1ディスク・グループのディスクのサイズが各々変更されて282672MGになり、ディスク・グループの合計サイズが47488896MBになったことが表示されます。

3.4.3 ドナー・ディスク・グループのグリッド・ディスクの縮小

Oracle ASMディスク・グループのディスクを縮小したら、各セルのグリッド・ディスクのサイズを縮小できます。

このタスクは、RECOC1ディスク・グループの領域をDATAC1ディスク・グループに再割当てする例の続きです。
「ドナー・ディスク・グループのOracle ASMディスクの縮小」のタスクを完了しておく必要があります。
  1. すべてのセルのRECOディスク・グループに関連付けられたグリッド・ディスクを新しいサイズに縮小します。

    「使用可能領域の容量の判別」の手順3で確認したストレージ・セルごとに、グリッド・ディスクを縮小して、前のタスクで縮小したOracle ASMディスクのサイズと一致するようにします。次のようなコマンドを使用します。

    dcli -c exa01celadm01 -l root "cellcli -e alter griddisk RECOC1_CD_00_exa01celadm01 \
    ,RECOC1_CD_01_exa01celadm01 \
    ,RECOC1_CD_02_exa01celadm01 \
    ,RECOC1_CD_03_exa01celadm01 \
    ,RECOC1_CD_04_exa01celadm01 \
    ,RECOC1_CD_05_exa01celadm01 \
    ,RECOC1_CD_06_exa01celadm01 \
    ,RECOC1_CD_07_exa01celadm01 \
    ,RECOC1_CD_08_exa01celadm01 \
    ,RECOC1_CD_09_exa01celadm01 \
    ,RECOC1_CD_10_exa01celadm01 \
    ,RECOC1_CD_11_exa01celadm01 \
    size=282672M "
    
    dcli -c exa01celadm02 -l root "cellcli -e alter griddisk RECOC1_CD_00_exa01celadm02 \
    ,RECOC1_CD_01_exa01celadm02 \
    ,RECOC1_CD_02_exa01celadm02 \
    ,RECOC1_CD_03_exa01celadm02 \
    ,RECOC1_CD_04_exa01celadm02 \
    ,RECOC1_CD_05_exa01celadm02 \
    ,RECOC1_CD_06_exa01celadm02 \
    ,RECOC1_CD_07_exa01celadm02 \
    ,RECOC1_CD_08_exa01celadm02 \
    ,RECOC1_CD_09_exa01celadm02 \
    ,RECOC1_CD_10_exa01celadm02 \
    ,RECOC1_CD_11_exa01celadm02 \
    size=282672M "
    
    ...
    
    dcli -c exa01celadm14 -l root "cellcli -e alter griddisk RECOC1_CD_00_exa01celadm14 \
    ,RECOC1_CD_01_exa01celadm14 \
    ,RECOC1_CD_02_exa01celadm14 \
    ,RECOC1_CD_03_exa01celadm14 \
    ,RECOC1_CD_04_exa01celadm14 \
    ,RECOC1_CD_05_exa01celadm14 \
    ,RECOC1_CD_06_exa01celadm14 \
    ,RECOC1_CD_07_exa01celadm14 \
    ,RECOC1_CD_08_exa01celadm14 \
    ,RECOC1_CD_09_exa01celadm14 \
    ,RECOC1_CD_10_exa01celadm14 \
    ,RECOC1_CD_11_exa01celadm14 \
    size=282672M "
  2. 次のコマンドを使用してグリッド・ディスクの新しいサイズを確認します。
    [root@exa01adm01 tmp]# dcli -g cell_group -l root "cellcli -e list griddisk attributes name,size where name like \'RECOC1.*\' "
    
    exa01celadm01: RECOC1_CD_00_exa01celadm01 276.046875G
    exa01celadm01: RECOC1_CD_01_exa01celadm01 276.046875G
    exa01celadm01: RECOC1_CD_02_exa01celadm01 276.046875G
    exa01celadm01: RECOC1_CD_03_exa01celadm01 276.046875G
    exa01celadm01: RECOC1_CD_04_exa01celadm01 276.046875G
    exa01celadm01: RECOC1_CD_05_exa01celadm01 276.046875G
    exa01celadm01: RECOC1_CD_06_exa01celadm01 276.046875G
    exa01celadm01: RECOC1_CD_07_exa01celadm01 276.046875G
    exa01celadm01: RECOC1_CD_08_exa01celadm01 276.046875G
    exa01celadm01: RECOC1_CD_09_exa01celadm01 276.046875G
    exa01celadm01: RECOC1_CD_10_exa01celadm01 276.046875G
    exa01celadm01: RECOC1_CD_11_exa01celadm01 276.046875G  
    ...

    前述の例では、RECOC1ディスク・グループのディスクのサイズが各々変更されて282672MB (276.046875 * 1024)になったことが表示されます。

3.4.4 使用可能な領域によるグリッド・ディスクのサイズの拡張

未割当てのディスク領域(すでに使用可能な領域、または別のOracle ASMディスク・グループで使用されている領域を縮小することで使用可能になった領域)がある場合は、グリッド・ディスクで使用されるサイズを増やすことができます。

このタスクは、RECOC1ディスク・グループの領域をDATAC1ディスク・グループに再割当てする例の続きです。既存のディスク・グループを拡張するために十分な領域がすでにある場合は、別のディスク・グループの領域を再割当てする必要はありません。
  1. 予期した空き領域の容量がセル・ディスクにあることを調べます。
    Oracle ASMディスクとグリッド・ディスクを縮小するタスクを完了している場合、セル・ディスクの空き領域は次のように表示されます。
    [root@exa01adm01 tmp]# dcli -g ~/cell_group -l root "cellcli -e list celldisk \
    attributes name,freespace"
    
    exa01celadm01: CD_00_exa01celadm01 276.0625G
    exa01celadm01: CD_01_exa01celadm01 276.0625G
    exa01celadm01: CD_02_exa01celadm01 276.0625G
    exa01celadm01: CD_03_exa01celadm01 276.0625G
    exa01celadm01: CD_04_exa01celadm01 276.0625G
    exa01celadm01: CD_05_exa01celadm01 276.0625G
    exa01celadm01: CD_06_exa01celadm01 276.0625G
    exa01celadm01: CD_07_exa01celadm01 276.0625G
    exa01celadm01: CD_08_exa01celadm01 276.0625G
    exa01celadm01: CD_09_exa01celadm01 276.0625G
    exa01celadm01: CD_10_exa01celadm01 276.0625G
    exa01celadm01: CD_11_exa01celadm01 276.0625G 
    ...
  2. ストレージ・セルごとにDATAグリッド・ディスクのサイズを目標の新しいサイズに増やします。

    「使用可能な領域の容量の判別」で計算したサイズを使用します。

    dcli -c exa01celadm01 -l root "cellcli -e alter griddisk DATAC1_CD_00_exa01celadm01 \
    ,DATAC1_CD_01_exa01celadm01 \
    ,DATAC1_CD_02_exa01celadm01 \
    ,DATAC1_CD_03_exa01celadm01 \
    ,DATAC1_CD_04_exa01celadm01 \
    ,DATAC1_CD_05_exa01celadm01 \
    ,DATAC1_CD_06_exa01celadm01 \
    ,DATAC1_CD_07_exa01celadm01 \
    ,DATAC1_CD_08_exa01celadm01 \
    ,DATAC1_CD_09_exa01celadm01 \
    ,DATAC1_CD_10_exa01celadm01 \
    ,DATAC1_CD_11_exa01celadm01 \
    size=692288M "
    ...
    dcli -c exa01celadm14 -l root "cellcli -e alter griddisk DATAC1_CD_00_exa01celadm14 \
    ,DATAC1_CD_01_exa01celadm14 \
    ,DATAC1_CD_02_exa01celadm14 \
    ,DATAC1_CD_03_exa01celadm14 \
    ,DATAC1_CD_04_exa01celadm14 \
    ,DATAC1_CD_05_exa01celadm14 \
    ,DATAC1_CD_06_exa01celadm14 \
    ,DATAC1_CD_07_exa01celadm14 \
    ,DATAC1_CD_08_exa01celadm14 \
    ,DATAC1_CD_09_exa01celadm14 \
    ,DATAC1_CD_10_exa01celadm14 \
    ,DATAC1_CD_11_exa01celadm14 \
    size=692288M "
  3. 次のコマンドを使用して、DATAC1ディスク・グループに関連付けられているグリッド・ディスクの新しいサイズを確認します。
    dcli -g cell_group -l root "cellcli -e list griddisk attributes name,size \ 
    where name like \'DATAC1.*\' "
    
    exa01celadm01: DATAC1_CD_00_exa01celadm01 676.0625G
    exa01celadm01: DATAC1_CD_01_exa01celadm01 676.0625G
    exa01celadm01: DATAC1_CD_02_exa01celadm01 676.0625G
    exa01celadm01: DATAC1_CD_03_exa01celadm01 676.0625G
    exa01celadm01: DATAC1_CD_04_exa01celadm01 676.0625G
    exa01celadm01: DATAC1_CD_05_exa01celadm01 676.0625G
    exa01celadm01: DATAC1_CD_06_exa01celadm01 676.0625G
    exa01celadm01: DATAC1_CD_07_exa01celadm01 676.0625G
    exa01celadm01: DATAC1_CD_08_exa01celadm01 676.0625G
    exa01celadm01: DATAC1_CD_09_exa01celadm01 676.0625G
    exa01celadm01: DATAC1_CD_10_exa01celadm01 676.0625G
    exa01celadm01: DATAC1_CD_11_exa01celadm01 676.0625G

DATAディスク・グループのサイズを増やすかわりに、新たに解放された空き領域を使用して新しいディスク・グループを作成することや、将来使用するために空き領域のままにしておくこともできます。一般的には、必要な最小限の数のディスク・グループ(通常はDATA、RECOおよびDBFS_DG)を使用して、高い柔軟性と管理のしやすさを実現することをお薦めします。ただし、場合によっては、仮想マシンを使用するとき、または多数のデータベースを統合するときなど、追加のディスク・グループや将来のための使用可能な空き領域が必要になる可能性があります。  

将来のためにグリッド・ディスクに空き領域を残しておく場合は、後から既存のディスク・グループに空き領域を割り当てる手順について「My Oracle Support Note 1684112.1」を参照してください。

3.4.5 Oracle ASMディスクのサイズの拡張

関連するグリッド・ディスクに割り当てられた領域を増やした後で、Oracle ASMディスクによって使用されるサイズを増やすことができます。

このタスクは、RECOC1ディスク・グループの領域をDATAC1ディスク・グループに再割当てする例の続きです。
Oracle ASMディスク・グループのサイズを変更するには、対応するグリッド・ディスクのサイズ変更のタスクを前もって完了しておく必要があります。
  1. DATAC1ディスク・グループのOracle ASMディスクを、ストレージ・セル上のグリッド・ディスクの新しいサイズに増やします。
    SQL> alter diskgroup DATAC1 resize all ;

    このコマンドによって、Oracle ASMディスクのサイズがグリッド・ディスクのサイズと一致するように変更されます。

    注意:

    指定したディスク・グループでディスク・グループ内にquorumディスクが構成されている場合、ALTER DISKGROUP ... RESIZE ALLコマンドはエラーORA-15277で失敗することがあります。quorumディスクが構成されるのは、『Oracle Exadata Database Machineメンテナンス・ガイド』に記載されている要件が満たされる場合です。

    対処方法としては、ストレージ・サーバー障害グループ名(FAILURE_TYPEが"REGULAR"であり、"QUORUM"ではない)をSQLコマンドに明示的に指定してください。次に例を示します。

    SQL> ALTER DISKGROUP datac1 RESIZE DISKS IN FAILGROUP exacell01, exacell02, exacell03;
  2. リバランス操作が完了するまで待機します。
    SQL> set lines 250 pages 1000 
    SQL> col error_code form a10 
    SQL> SELECT dg.name, o.* FROM gv$asm_operation o, v$asm_diskgroup dg 
         WHERE o.group_number = dg.group_number;

    変更されたディスク・グループについて問合せから行が戻されなくなるまで、次の手順に進まないでください。

  3. Oracle ASMディスクとディスク・グループの新しいサイズが目標のサイズになったことを確認します。
    SQL> SELECT name, total_mb, free_mb, total_mb - free_mb used_mb, 
         round(100*free_mb/total_mb,2) pct_free
         FROM v$asm_diskgroup
         ORDER BY 1;
    
    NAME                             TOTAL_MB    FREE_MB    USED_MB   PCT_FREE
    ------------------------------ ---------- ---------- ---------- ----------
    DATAC1                          116304384   57439796   58864588      49.39
    RECOC1                           47488896   34542516   12946380      72.74
    
    SQL>  SELECT dg.name, d.total_mb, d.os_mb, count(1) num_disks
          FROM  v$asm_diskgroup dg, v$asm_disk d
          WHERE dg.group_number = d.group_number
          GROUP BY dg.name, d.total_mb, d.os_mb;
     
    NAME                             TOTAL_MB      OS_MB  NUM_DISKS
    ------------------------------ ---------- ---------- ----------
    DATAC1                             692288     692288        168
    RECOC1                             282672     282672        168
    
    

    問合せの結果から、RECOC1およびDATAC1のディスク・グループとディスクのサイズが、「使用可能な領域の容量の判別」で計算された値に変更されたことがわかります。

3.5 Oracle Exadata Storage Server Softwareレスキュー手順の使用

システム・ディスクで障害が発生した場合、オペレーティング・システムに破損したファイル・システムがある場合またはブート領域が損傷している場合、レスキュー手順が必要です。1つのシステム・ディスクのみで障害が発生した場合、リカバリにCellCLIコマンドを使用します。両方のシステム・ディスクで同時に障害が発生するまれな事例の場合、Oracle Exadata Storage Server Software CELLBOOT USBフラッシュ・ドライブで提供されるExadata Storage Serverレスキュー機能を使用する必要があります。

通常の冗長性を使用している場合、レスキューされるセルのミラー・コピーは1つだけです。レスキュー手順の実行中にこのミラーでも障害が発生すると、リカバリできないデータの損失が発生する可能性があります。ミラー・コピーでデータの完全なバックアップを作成し、すぐにミラー・コピー・セルをオフラインにしてレスキュー前の新しいデータ変更を防止することをお薦めします。これにより、レスキュー・プロセス中は、障害が発生したセルのグリッド・ディスクのすべてのデータおよびそのミラー・コピーにアクセスできなくなります。

Oracle ASMディスク修復タイマーのデフォルトの修復時間は、3.6時間です。この時間内にレスキュー手順を実行できないことがわかった場合、レスキュー手順を実行できるまで、Oracle ASMリバランス手順を使用してディスクをリバランスする必要があります。

障害が発生したセルのすべてのグリッド・ディスクにOracle ASMの複数のミラー・コピーがある場合など、高い冗長性のディスク・グループを使用している場合、障害が発生したセルをオフラインにします。構成したOracle ASMのタイムアウト後に、Oracle ASMにより、障害が発生したセルのグリッド・ディスクが自動的に削除され、ミラー・コピーを使用したデータのリバランスが開始されます。デフォルトのタイムアウトは2時間です。セルのレスキューに2時間以上かかる場合、Oracle ASMのレスキュー・セルのグリッド・ディスクを再作成する必要があります。

注意:

十分に注意してレスキュー手順を使用してください。誤って手順を使用すると、データの損失が発生する可能性があります。

レスキュー手順を使用する場合、次の点に注意してください。

  • レスキュー手順により、セルの一部またはすべてのディスクが書き換えられる可能性があります。この場合、リカバリできずにそれらのディスクのすべての内容を失う可能性があります。

    この手順を使用する場合は十分に注意し、プロンプトを確認してください。一部またはすべてのディスクのデータを損失してもかまわない場合にOracleサポート・サービスの支援だけでレスキュー手順を使用することが理想的です。

  • レスキュー手順の実行中に明示的に選択しないかぎり、レスキュー手順により、データ・ディスクの内容またはシステム・ディスクのデータ・パーティションの内容は破棄されません。

  • Oracle Exadata Storage Server Software 11gリリース2(11.2)以降、レスキュー手順により、Exadata Storage Serverソフトウェアが同じリリースにリストアされます。これには、最後に正常にブートしたときのセルのパッチが含まれます。レスキュー手順を使用しても、次の項目はリストアされません。

    • アラート構成、SMTP情報、管理者の電子メール・アドレスなど、セルの構成。ただし、最後に/usr/local/bin/ipconfユーティリティの実行が成功したときに存在したネットワーク構成はリストアされます。セル、rootcelladminおよびcellmonitorユーザーのSSH IDはリストアされます。

      Exadata Storage ServerのILOM構成。通常、ILOM構成は、Exadata Storage Serverソフトウェアに障害が発生しても損われません。

  • レスキュー手順により、データ・ディスクまたはシステム・ディスクのデータ・パーティションの確認または再構築は行われません。グリッド・ディスクにデータの破損がある場合、レスキュー手順は使用しないでください。かわりに、Oracle DatabaseおよびOracle ASMのレスキュー手順を使用してください。

正常なレスキューの実行後、セルを再構成し、データを保存する場合はセル・ディスクをインポートする必要があります。データを保存しない場合は、新しいセル・ディスクおよびグリッド・ディスクを作成する必要があります。

この項では、次の項目について説明します。

関連項目:

  • タイマーのリセットの詳細は、『Oracle Exadata Storage Server Softwareユーザーズ・ガイド』を参照してください

  • ALTER CELLコマンドの詳細は、『Oracle Exadata Storage Server Softwareユーザーズ・ガイド』を参照してください

  • CellCLIユーティリティを使用したセル、セル・ディスクおよびグリッド・ディスクの構成の詳細は、『Oracle Exadata Storage Server Softwareユーザーズ・ガイド』を参照してください

3.5.1 CELLBOOT USBフラッシュ・ドライブを使用したレスキューの実行

CELLBOOT USBフラッシュ・ドライブを使用して、次の手順を実行します。

  1. コンソールを使用して、Exadata Storage Serverに接続します。

  2. Exadata Storage Serverを起動します。次のように表示されます。

    Press any key to enter the menu
    Booting Exadata_DBM_0: CELL_USB_BOOT_trying_C0D0_as_HD1 in 4 seconds...
    Booting Exadata_DBM_0: CELL_USB_BOOT_trying_C0D0_as_HD1 in 3 seconds...
    Press any key to see the menu.

    Exadataソフトウェアの古いバージョンの場合、"Oracle Exadata"スプラッシュ画面が表示されます。スプラッシュ画面が表示されたら、キーボードの任意のキーを押します。スプラッシュ画面の表示は、5秒間のみです。

  3. ブート・オプションの表示リストで、最後のオプションのCELL_USB_BOOT_CELLBOOT_usb_in_rescue_modeまで下にスクロールし、[Enter]を押します。

  4. レスキュー・オプションを選択して、レスキュー手順に進みます。

  5. システムの再起動を要求されたら、次の手順を実行するか、またはレスキューの最初のフェーズの最後にシェルを入力します。

    1. 選択して、シェルを入力します。システムの再起動は選択しないでください。

    2. レスキューのrootパスワードを使用してシェルにログインします。

    3. シェルからrebootコマンドを実行します。

    4. シェルが再起動したら、Oracle Exadataスプラッシュ画面が表示される前に[F8]を押します。F8キーを押すと、起動デバイス選択メニューが開きます。

    5. 起動デバイスとしてRAIDコントローラを選択します。これにより、セルがハード・ディスクからブートされるようになります。

注意:

機能が制限されたレスキュー・モードのLinuxログイン・シェルを入力できる追加オプションを使用できる場合があります。Oracleサポート・サービスから提供されたパスワードを使用してrootユーザーとしてシェルにログインして、セルの追加診断および修復を手動で実行できます。詳細は、オンラインで入手できるこのリリースのリリース・ノートまたは最新のドキュメントを参照するか、Oracleサポート・サービス担当者に問い合せてください。

レスキューが成功した後、セルを構成する必要があります。データ・パーティションを維持した場合は、レスキュー手順の実行時にセル・ディスクが自動的にインポートされています。

  1. レスキュー手順の実行中に交換されたディスクのセル・ディスクおよびグリッド・ディスクを再作成します。

  2. グリッド・ディスクのステータスをチェックします。非アクティブの場合、次のコマンドを実行してアクティブ化します。

    CellCLI> ALTER GRIDDISK ALL ACTIVE
    
  3. Oracle ASMインスタンスにログインし、次のコマンドを使用して各ディスク・グループのディスクをONLINEに設定します。

    SQL> ALTER DISKGROUP disk_group_name ONLINE DISKS IN FAILGROUP \
    cell_name WAIT;
    

    注意:

    ディスクがすでに強制削除されているため、コマンドが失敗する場合は、ディスクをASMディスク・グループに強制追加する必要があります。

    注意:

    グリッド・ディスクのasmmodestatus属性とasmdeactivationoutcome属性は、ALTER DISKGROUP文が完了するまで正しく報告されません。

  4. ALTER CELLコマンドを使用して、セルを再構成します。次に、最も一般的なパラメータの例を示します。

    CellCLI> ALTER CELL
    smtpServer='my_mail.example.com', -
    smtpFromAddr='john.doe@example.com', -
    smtpPwd=email_address_password, -
    smtpToAddr='jane.smith@example.com', -
    notificationPolicy='critical,warning,clear', -
    notificationMethod='mail,snmp'
    
  5. I/Oリソース管理(IORM)プランを再作成します。

  6. メトリックしきい値を再作成します。

関連項目:

  • IORMプランの詳細は、『Oracle Exadata Storage Server Softwareユーザーズ・ガイド』を参照してください

  • メトリックしきい値の設定の詳細は、『Oracle Exadata Storage Server Softwareユーザーズ・ガイド』を参照してください

3.5.1.1 Oracle Exadata Database Machineエイス・ラックのストレージ・サーバーのレスキュー後の構成

Oracle Exadata Storage Server Softwareリリース11.2.3.3以上では、セルのレスキュー後に追加の手順は不要です。構成を検証するには、次の手順を使用します。

  1. 別のストレージ・サーバーにある/opt/oracle.SupportTools/resourcecontrolユーティリティを、リカバリしたサーバーの/opt/oracle.SupportTools/resourcecontrolディレクトリにコピーします。
  2. 次のコマンドを使用して、ユーティリティに対して適切な権限が設定されていることを確認します。
    # chmod 740 /opt/oracle.SupportTools/resourcecontrol
    
  3. 次のコマンドを使用して、現在の構成を検証します。コマンドの出力が表示されます。
    # /opt/oracle.SupprtTools/resourcecontrol -show
    
    Validated hardware and OS. Proceed.
    Number of cores active: 6
    Number of harddisks active: 6
    Number of flashdisks active: 8
    

    エイス・ラック構成の場合、6個のコア、6個のハード・ディスクおよび8個のフラッシュ・ディスクが有効になっている必要があります。他の値が表示された場合は、次のコマンドを使用して、エイス・ラック構成を有効にしてください。

    CellCLI> ALTER CELL eighthRack=true

3.5.2 損傷したCELLBOOT USBフラッシュ・ドライブの再作成

CELLBOOT USBフラッシュ・ドライブの紛失または損傷が発生した場合、次の手順を使用して新しいドライブを作成できます。

注意:

Oracle Exadata Storage Server Softwareリリース12.1.2.1.0以上を実行するマシン用のUSBフラッシュ・ドライブを作成するには、Oracle Linux 6を実行するマシンが必要です。

  1. rootユーザーとしてセルにログインします。
  2. 新しいUSBフラッシュ・ドライブを取り付けます。このフラッシュ・ドライブには、少なくとも1GBから最大8GBの容量が必要です。
  3. システムから他のUSBフラッシュ・ドライブを取り外します。
  4. 次のコマンドを実行します。
    cd /opt/oracle.SupportTools
    ./make_cellboot_usb -verbose -force

3.6 「ストレージ・セルの既存のエラスティック構成の変更」

この項では、既存のエラスティック構成に次の変更を行う方法について説明します。

3.6.1 セル・ノードの追加

このシナリオでは、ディスク・グループを含む既存のExadataストレージ・グリッドに新しいセルを追加します。

  1. 新しいセルの場合は、次の手順を実行します。

    1. 目的のストレージ・グリッドで新しいストレージ・セルを利用できるようにするために、必要なすべてのケーブル接続要件を完了します。『Oracle Exadata Database Machineインストレーションおよび構成ガイド』を参照してください。

    2. 適切なOSSイメージでセルをイメージ化し、IPアドレスの入力を求められたときに適切な入力を提供します。

    手順3にスキップします。

  2. ラック内の既存のセルをInfiniBandネットワーク内の別のクラスタに割り当てる場合は、追加するセルのInfiniBandインタフェース(ib0およびib1)に割り当てられているIPアドレスをメモします。

  3. すべてのOracle RACノードの/etc/oracle/cell/network-config/cellip.oraファイルに、前述の手順からのIPアドレスを追加します。これを行うには、クラスタ内の任意のデータベース・サーバー上で次の手順を実行します。

    1. cd /etc/oracle/cell/network-config

    2. cp cellip.ora cellip.ora.orig

    3. cp cellip.ora cellip.ora-bak

    4. /etc/oracle/cell/network-config/cellip.ora-bakに新しいエントリを追加します。

    5. /usr/local/bin/dcli -g database_nodes -l root -f cellip.ora-bak -d /etc/oracle/cell/network-config/cellip.ora

      database_nodesは、クラスタ内の各データベース・サーバーの名前が含まれているファイルを参照します。名前は、それぞれ別の行にあります。

  4. 既存のストレージ・セルにASRアラートが設定されていた場合は、追加するセルのためにセルのASRアラートを構成します。

    1. セルのASRアラートを構成するために必要なセルの属性をリストします。いずれかの既存のストレージ・グリッド・セルから、次のコマンドを実行します。

      cellcli -e list cell attributes snmpsubscriber
      
    2. celladminユーザーとして次のコマンドを実行して、新しいセルに同じSNMP値を適用します。

      cellcli -e "alter cell snmpsubscriber=snmpsubscriber"
      

      snmpsubscriberを前述のコマンドからの値に置き換えます。

  5. 追加するセルのセル・アラートを構成します。

    1. セル・アラートを構成するために必要なセルの属性をリストします。いずれかの既存のストレージ・グリッド・セルから、次のコマンドを実行します。

      cellcli -e list cell attributes
       notificationMethod,notificationPolicy,smtpToAddr,smtpFrom,
       smtpFromAddr,smtpServer,smtpUseSSL,smtpPort
      
    2. celladminユーザーとして次のコマンドを実行して、新しいセルに同じ値を適用します。

      cellcli -e "alter cell
       notificationMethod='notificationMethod',
       notificationPolicy='notificationPolicy',
       smtpToAddr='smtpToAddr',
       smtpFrom='smtpFrom',
       smtpFromAddr='smtpFromAddr',
       smtpServer='smtpServer',
       smtpUseSSL=smtpUseSSL,
       smtpPort=smtpPort"
      

      プレースホルダを既存のセルから検出された値に置き換えます。

  6. 追加するセルのセル・ディスクを作成します。

    1. celladminとしてセルにログインし、次のコマンドを実行します。

      cellcli -e create celldisk all
      
    2. デフォルトでフラッシュ・ログが作成されたことを確認します。

      cellcli –e list flashlog
      

      フラッシュ・ログの名前が表示されます。cellnodename_FLASHLOGのような名前で、ステータスが"normal"になっていることを確認してください。

      フラッシュ・ログが存在しない場合は、次を使用して作成します。

      cellcli -e create flashlog all
      
    3. 現在のフラッシュ・キャッシュ・モードを、既存セルのフラッシュ・キャッシュ・モードと比較します。

      cellcli -e list cell attributes flashcachemode
      

      フラッシュ・キャッシュ・モードを変更して既存のセルのフラッシュ・キャッシュ・モードに一致させるには、次の手順を実行します。

      i.フラッシュ・キャッシュが存在し、セルがWriteBackフラッシュ・キャッシュ・モードの場合、フラッシュ・キャッシュを最初にフラッシュする必要があります。

      cellcli –e alter flashcache all flush
      

      コマンドが戻るまで待機します。

      ii.フラッシュ・キャッシュを削除します。

      cellcli -e "drop flashcache all"
      

      iii.フラッシュ・キャッシュ・モードを変更します。

      cellcli -e "alter cell flashCacheMode=writeback_or_writethrough"
      

      flashCacheMode属性の値は、writebackまたはwritethroughのいずれかです。クラスタ内の他のストレージ・セルと同じフラッシュ・キャッシュ・モードになるように、値を設定する必要があります。

      iv.フラッシュ・キャッシュを作成します。

      cellcli -e create flashcache all
      
  7. 追加するセルのグリッド・ディスクを作成します。

    1. 既存のセルからの既存のグリッド・ディスクのsizecachingpolicyを問い合せます。

      CellCLI> list griddisk attributes name,asmDiskGroupName,cachingpolicy,size,offset
      
    2. 前述のコマンドで検出された各ディスク・グループについて、クラスタに追加する新しいセルのグリッド・ディスクを作成します。前述のコマンドで報告されたその特定のディスク・グループの既存のグリッド・ディスクのsizecachingpolicyを一致させます。既存のセルと同様のレイアウトおよびパフォーマンス特性になるように、グリッド・ディスクはオフセットの昇順で作成する必要があります。たとえば、"list griddisk"コマンドで次のような出力が返されたとします。

      DATAC1          default         2.15625T        32M
      DBFS_DG         default         33.796875G      2.695465087890625T
      RECOC1          none            552.109375G     2.1562957763671875T
      

      グリッド・ディスクを作成するときには、DATAC1RECOC1DBFS_DGの順序で次のコマンドを使用して作成します。

      cellcli -e create griddisk
       PREFIX=matching_prefix_of_the_corresponding_existing_diskgroup,
       size=size_followed_by_G_or_T,
       cachingPolicy=\'value_from_command_above_for_this_disk_group\',
       comment =\"Cluster cluster_name diskgroup diskgroup_name\"
      

      警告: 次のように、EXACTサイズを単位(TまたはG)とともに指定してください。

  8. 新しく作成されたグリッド・ディスクがOracle RACノードから参照できることを確認します。各Oracle RACノードにログインし、次のコマンドを実行します。

    $GI_HOME/bin/kfod op=disks disks=all | grep cellName_being_added
    

    前述の手順7で作成したすべてのグリッド・ディスクがリストされる必要があります。

  9. 新しく作成されたグリッド・ディスクをそれぞれの既存のASMディスク・グループに追加します。

    alter diskgroup disk_group_name add disk 'comma_separated_disk_names';
    

    comma_separated_disk_namesは、disk_group_nameに対応する手順5のディスク名を指します。

    このコマンドはデフォルトの電源レベルでASMリバランス操作を開始します。gv$asm_operationの問合せにより、リバランスの進捗状況を監視します。

    SQL> select * from gv$asm_operation;
    

    リバランスが完了すると、Oracle RACへのセルの追加は完了です。

  10. 最新のexachkをダウンロードして実行し、結果の構成にOracle Exadataの最新のベスト・プラクティスが実装されたことを確認します。

3.6.2 既存のExadataストレージ・グリッドの拡張

このシナリオでは、Exadataラック内にExadataストレージ・セルが存在し、最も拡張の必要なExadataストレージ・グリッドにストレージ・セルを追加します。

  1. 現在のクラスタからストレージ・セルを廃止します。これを実行するには、「既存のディスク・グループまたはストレージ・グリッドからのストレージ・セルの削除」の手順に従ってください。
  2. 目的のExadataストレージ・グリッドにストレージ・セルを追加します。これを実行するには、「セル・ノードの追加」の手順に従ってください。
  3. 最新のexachkをダウンロードして実行し、結果の構成にOracle Exadataの最新のベスト・プラクティスが実装されたことを確認します。

3.6.3 既存のディスク・グループまたはストレージ・グリッドからのストレージ・セルの削除

既存のOracle Exadataストレージ・グリッドからストレージ・セルを削除できます。

  1. Oracle ASMから削除されるセルに属するディスクを削除します。

    注意:

    Oracle Exadata Oracle VMデプロイメントでは、すべてのVMクラスタから次のサブステップを実行する必要があります。

    1. クラスタ内の任意のノードにログインします。
    2. 対象となるExadataセルのクラスタで使用されているグリッド・ディスクのリストを問い合せます。
      Grid_home/bin/asmcmd  lsdsk --suppressheader | grep cellName_being_removed | awk -F'/' '{print $NF}'

      注意:

      削除されるストレージ・セルからのディスクを含むすべてのディスク・グループ内の使用可能な空き領域が、そのディスク・グループに割り当てられた記憶域の少なくとも15%であることを確認してください。

    3. 前述のコマンドで返されたOracle ASMディスクをそれぞれのディスク・グループから削除します。
      SQL> ALTER DISKGROUP diskgroup_name DROP DISKS IN FAILGROUP cellName_being_removed;
    4. このディスク削除操作により、デフォルトの電源レベルでリバランス操作が開始されます。次のコマンドを使用して、リバランスを監視します。
      SQL> SELECT * FROM gv$asm_operation;

      リバランスが完了するまで、つまり、gv$asm_operationから行が返されなくなるまで待ちます。

    5. すべてのディスク・グループが、削除されるセルのディスクを参照していないことを確認します。
      SQL> SELECT path, name, header_status, mode_status, mount_status, state,
       failgroup FROM v$asm_disk ORDER BY path;
      

      削除されるセルに属するすべてのディスクのheader_status列は、「FORMER」と表示される必要があります。

      注意:

      Exadata Oracle VMデプロイメントでは、すべてのOracle VMクラスタから前述のサブステップを実行する必要があります。

  2. 削除するセルをクリーンアップします。

    celladminとしてセルにログインし、次のコマンドを実行します。各グリッド・ディスクに対して次のコマンドを実行します。

    1. グリッド・ディスクを削除します。
      cellcli -e drop griddisk all prefix=prefix_of_the_grid_disk
    2. フラッシュ・キャッシュが存在し、セルがWriteBackフラッシュ・キャッシュ・モードの場合、削除前にフラッシュ・キャッシュをフラッシュする必要があります。
      cellcli -e alter flashcache all flush

      コマンドが戻るまで待機します。

    3. フラッシュ・キャッシュを削除します。
      cellcli -e drop flashcache all
      
    4. セル・ディスクを削除します。
      cellcli -e drop celldisk all
      

      データを安全に消去するには、DROP CELLDISKコマンドをeraseオプションを指定して実行するか、DROP CELLコマンドをeraseオプションを指定して実行します。

      DROP CELLコマンドの下の表内に消去操作の所要時間が表示されます。

  3. クラスタ内のすべてのデータベース・サーバー・ノードの/etc/oracle/cell/network-config/cellip.oraから、削除するセルのエントリを削除します。
    クラスタ内の任意のデータベース・サーバー・ノードで次の手順を実行します。
    1. cd /etc/oracle/cell/network-config
    2. cp cellip.ora cellip.ora.orig
    3. cp cellip.ora cellip.ora-bak
    4. 削除するセルのエントリを/etc/oracle/cell/network-config/cellip.ora-bakから削除します。
    5. /usr/local/bin/dcli -g database_nodes -l root -f cellip.ora-bak -d /etc/oracle/cell/network-config/cellip.ora
      database_nodesは、クラスタ内の各データベース・サーバーの名前が含まれているファイルを参照します。名前は、それぞれ別の行にあります。
  4. Oracle ExaCHKの最新バージョンをダウンロードして実行し、結果の構成にOracle Exadataの最新のベスト・プラクティスが実装されたことを確認します。