専用Exadataインフラストラクチャ上のAutonomous AI DatabaseでのCPUオーバープロビジョニング
専用Exadataインフラストラクチャで使用可能な物理CPUより多くのAutonomous AIデータベースをプロビジョニングできます。これはCPUオーバープロビジョニングと呼ばれます。
ノート: CPUオーバープロビジョニングは、OCPUコンピュート・タイプでのみサポートされています。
CPUオーバープロビジョニングについて
CPUオーバープロビジョニングにより、システム・レベルでより多くのデータベースを作成し、各インフラストラクチャ・インスタンスでより多くのデータベースを実行できます。
Autonomous AI Databaseのプロビジョニング中に、OCPU全体を必要としないデータベースに小数のOCPU値(0.1から0.9のOCPU、増分は0.1)を割り当てることができます。開発環境やテスト環境などの非本番データベースに使用される最小または非パフォーマンスのクリティカル・ワークロードでOCPUの一部をデータベースに割り当てることで、OCPU消費を最適化できます。1 OCPU未満のテスト・データベース(0.1 OCPUなど)をプロビジョニングすると、他のデータベースの残りの0.9 OCPUを保持できます。したがって、使用可能なCPUより多くのデータベースをプロビジョニングできます。たとえば、CPUが100個あるExadataインフラストラクチャは、CPUオーバープロビジョニングを備えた1000個のAutonomous AIデータベースに対応できます。
1つ以上のOCPUを使用するデータベースの場合、割り当てられたCPUの数を1つ以上のOCPUの倍数ずつ増やす必要があります。たとえば、データベースに3.5 OCPUを割り当てることはできません。3を上回る次に使用可能なOCPU数は4です。各Autonomous AI Databaseには、わずか32 GBのストレージを割り当てることもできます。OCPUおよびストレージ・リソースの最小要件が低くなると、データベースをオーバープロビジョニングし、各インフラストラクチャ・インスタンスでより多くのデータベースを実行できます。
CPUオーバープロビジョニングの実装
OCPUオーバープロビジョニングでプロビジョニングされたデータベースは、次のものにのみ接続できます。
-
Autonomous AI Transaction Processingワークロードの
tpおよびlowサービス。 -
Autonomous AI Lakehouseワークロード向けの
lowサービス。OCPUオーバープロビジョニングでプロビジョニングされたデータベースに割り当てられるリソースは、選択したOCPU数に基づいて比例して計算されます。たとえば、OCPUが0.3のAutonomous AIデータベースでは、単一のOCPU Autonomous AIデータベースに対する割当ての30%であるメモリーおよび同時文の割当てが取得されます。詳細は、Autonomous AIデータベースの事前定義済データベース・サービス名を参照してください。
新しいAutonomous AI Databaseインスタンスの作成時、または既存のAutonomous AI Databaseインスタンスまたはそのバックアップのクローニング時:
-
CPUオーバープロビジョニングは、ECPUを使用するデータベースではサポートされていません。Autonomous AI Databaseの最小ECPU値は2です。
-
フルOCPUを必要としないデータベースには0.1から0.9までの小数単位のOCPU値を(0.1OCPU単位で)割り当てることができます。1つ以上のOCPUを必要とするデータベースの場合、割当てられるOCPUの数は整数で指定する必要があります。たとえば、データベースに3.5 OCPUを割り当てることはできません。3を上回る次に使用可能なOCPU数は4です。
-
バックアップからのクローニング中に、必要に応じて、クローンの後のみCPUのサイズを小数値に変更できます。バックアップからのクローニングの手順については、バックアップからのAutonomous AIデータベースのクローニングを参照してください。
Autonomous AI Databaseをスケール・アップまたはスケール・ダウンする場合:
-
小数値のOCPUから1つフル・OCPUにスケール・アップしても、接続できる事前定義済データベース・サービスに影響しません。接続できるのは、Autonomous AI Transaction Processingワークロードの場合は
tpサービスおよびlowサービス、Autonomous AI Lakehouseワークロードの場合はlowサービスのみです。データベースをスケール・アップする手順は、Autonomous AIデータベースへのCPUまたはストレージ・リソースの追加を参照してください。 -
完全なOCPUから小数値にスケール・ダウンしても、接続できる事前定義済データベース・サービスに影響しません。オーバープロビジョニングされたOCPU上にあるにもかかわらず、スケール・ダウン前と同じように、すべての事前定義済データベース・サービスに引き続き接続できます。データベースをスケール・ダウンする手順は、Autonomous AIデータベースからのCPUまたはストレージ・リソースの削除を参照してください。
自動スケーリングにより、Autonomous AI Databaseは、割り当てられたCPU数より最大3倍のCPUおよびIOリソースを使用できます。オーバープロビジョニングされたOCPUに作成されたデータベースに自動スケーリングを適用すると、CPU数の3倍が小数値の場合は、次の整数に丸められます。詳細は、「自動スケーリング時のCPU割当て」を参照してください。