専用Exadataインフラストラクチャ上のAutonomous AI DatabaseでのCPUオーバープロビジョニング

専用Exadataインフラストラクチャで使用可能な物理CPUより多くのAutonomous AI Databaseをプロビジョニングできます。これは、CPUオーバープロビジョニングと呼ばれます。

ノート:

CPUオーバープロビジョニングは、OCPUコンピュート・タイプでのみサポートされます。

CPUオーバープロビジョニングについて

CPUオーバープロビジョニングを使用すると、システム・レベルでより多くのデータベースを作成し、各インフラストラクチャ・インスタンスでより多くのデータベースを実行できます。

Autonomous AI Databaseのプロビジョニング中に、OCPU全体を必要としないデータベースに小数OCPU値(0.1から0.9 OCPU、増分は0.1)を割り当てることができます。OCPU使用量を最適化するには、開発環境やテスト環境などの非本番データベースに使用されるクリティカルなワークロードを最小限に抑えて、OCPUの一部をデータベースに割り当てます。テスト・データベースを1 OCPU未満(0.1 OCPUなど)でプロビジョニングすると、他のデータベースの残りの0.9 OCPUを保持できます。したがって、使用可能なCPUより多くのデータベースをプロビジョニングできます。たとえば、CPUが100個あるExadataインフラストラクチャは、CPUオーバープロビジョニングで1000個のAutonomous AI Databaseに対応できます。

1つ以上のOCPUを使用するデータベースの場合、割り当てられたCPUの数を1つ以上のOCPUの倍数で増やす必要があります。たとえば、データベースに3.5 OCPUを割り当てることはできません。3を上回る次に使用可能なOCPU数は4です。32 GBのストレージを各Autonomous AI Databaseに割り当てることもできます。OCPUおよびストレージ・リソースの最小要件が低いほど、データベースをオーバープロビジョニングし、各インフラストラクチャ・インスタンスでより多くのデータベースを実行できます。

CPUオーバープロビジョニングの実装

OCPUオーバープロビジョニングでプロビジョニングされたデータベースは、次のものにのみ接続できます。
  • Autonomous AI Transaction Processingワークロードのtpおよびlowサービス。
  • Autonomous AI Lakehouseワークロード用のlowサービス。
OCPUオーバープロビジョニングでプロビジョニングされたデータベースに割り当てられたリソースは、選択したOCPUの数に基づいて比例して計算されます。たとえば、OCPUが0.3のAutonomous AI Databaseでは、単一のOCPUAutonomous AI Databaseへの割当ての30%であるメモリーおよび同時文の割当てが取得されます。詳細はAutonomous AI Databaseの事前定義されたデータベース・サービス名を参照してください。
新しいAutonomous AI Databaseインスタンスを作成する場合、または既存のAutonomous AI Databaseインスタンスまたはそのバックアップをクローニングする場合:
  • CPUオーバープロビジョニングは、ECPUを使用するデータベースではサポートされていません。Autonomous AI Databaseの最小ECPU値は2です。
  • OCPU全体を必要としないデータベースには、0.1から0.9までの小数単位のOCPU値を(0.1 OCPU単位で)割り当てることができます。1つ以上のOCPUを必要とするデータベースの場合、割り当てられるOCPUの数を整数として指定する必要があります。たとえば、データベースに3.5 OCPUを割り当てることはできません。3を上回る次に使用可能なOCPU数は4です。
  • バックアップからのクローニング中に、必要に応じて、クローンの後のみ、CPUのサイズを小数値に変更できます。バックアップからのクローニングの手順については、「バックアップからのAutonomous AI Databaseのクローニング」を参照してください。
Autonomous AI Databaseをスケール・アップまたはスケール・ダウンする場合:
  • 小数点から1つのフル・OCPUにスケール・アップしても、接続できる事前定義済データベース・サービスには影響しません。接続できるのは、Autonomous AI Transaction Processingワークロードの場合はtpサービスとlowサービス、Autonomous AI Lakehouseワークロードの場合はlowサービスのみです。データベースのスケール・アップの手順は、Autonomous AI DatabaseへのCPUまたはストレージ・リソースの追加を参照してください。
  • フルOCPUから1つフル・コアOCPUにスケール・ダウンしても、接続できる事前定義済データベース・サービスに影響ありません。オーバープロビジョニングされたOCPU上にあたっても、スケール・ダウン前と同じように、すべての事前定義済データベース・サービスに引き続き接続できます。データベースをスケール・ダウンする手順は、Autonomous AI DatabaseからのCPUまたはストレージ・リソースの削除を参照してください。

自動スケーリングにより、自律型AIデータベースは、割り当てられたCPU数よりも最大3倍のCPUおよびIOリソースを使用できます。オーバープロビジョニングされたOCPUで作成されたデータベースに自動スケーリングを適用する場合、CPU数の3倍が小数値になる場合は、次の整数に丸められます。詳細は、「自動スケーリング時のCPU割当て」を参照してください。