専用Exadataインフラストラクチャ上のAutonomous AI DatabaseでのCPUオーバープロビジョニング

専用Exadataインフラストラクチャで使用可能な物理CPUより多くのAutonomous AIデータベースをプロビジョニングできます。これはCPUオーバープロビジョニングと呼ばれます。

ノート: CPUオーバープロビジョニングは、OCPUコンピュート・タイプでのみサポートされています。

CPUオーバープロビジョニングについて

CPUオーバープロビジョニングにより、システム・レベルでより多くのデータベースを作成し、各インフラストラクチャ・インスタンスでより多くのデータベースを実行できます。

Autonomous AI Databaseのプロビジョニング中に、OCPU全体を必要としないデータベースに小数のOCPU値(0.1から0.9のOCPU、増分は0.1)を割り当てることができます。開発環境やテスト環境などの非本番データベースに使用される最小または非パフォーマンスのクリティカル・ワークロードでOCPUの一部をデータベースに割り当てることで、OCPU消費を最適化できます。1 OCPU未満のテスト・データベース(0.1 OCPUなど)をプロビジョニングすると、他のデータベースの残りの0.9 OCPUを保持できます。したがって、使用可能なCPUより多くのデータベースをプロビジョニングできます。たとえば、CPUが100個あるExadataインフラストラクチャは、CPUオーバープロビジョニングを備えた1000個のAutonomous AIデータベースに対応できます。

1つ以上のOCPUを使用するデータベースの場合、割り当てられたCPUの数を1つ以上のOCPUの倍数ずつ増やす必要があります。たとえば、データベースに3.5 OCPUを割り当てることはできません。3を上回る次に使用可能なOCPU数は4です。各Autonomous AI Databaseには、わずか32 GBのストレージを割り当てることもできます。OCPUおよびストレージ・リソースの最小要件が低くなると、データベースをオーバープロビジョニングし、各インフラストラクチャ・インスタンスでより多くのデータベースを実行できます。

CPUオーバープロビジョニングの実装

OCPUオーバープロビジョニングでプロビジョニングされたデータベースは、次のものにのみ接続できます。

新しいAutonomous AI Databaseインスタンスの作成時、または既存のAutonomous AI Databaseインスタンスまたはそのバックアップのクローニング時:

Autonomous AI Databaseをスケール・アップまたはスケール・ダウンする場合:

自動スケーリングにより、Autonomous AI Databaseは、割り当てられたCPU数より最大3倍のCPUおよびIOリソースを使用できます。オーバープロビジョニングされたOCPUに作成されたデータベースに自動スケーリングを適用すると、CPU数の3倍が小数値の場合は、次の整数に丸められます。詳細は、「自動スケーリング時のCPU割当て」を参照してください。

関連コンテンツ

Autonomous AIデータベースの事前定義済データベース・サービス名