専用Exadataインフラストラクチャ上のAutonomous AI Databaseの請求

Oracle Autonomous AI Database on Dedicated Exadata Infrastructureでは、特定のアルゴリズムを使用して、Autonomous AI Databaseで使用されるコンピュートの使用を割り当てて請求します。これらのアルゴリズムを理解することで、最もコスト効率の高い方法でパフォーマンス目標を達成するために、自律型AIデータベースを作成および構成する最適な方法を決定できます。

CPU請求の詳細

Oracle Autonomous AI Database on Dedicated Exadata Infrastructureでは、次のようにCPU請求が計算されます。

  1. 各Autonomous AI DatabaseのCPU使用率は、ECPU全体またはOCPUの単位で毎秒測定されます。

    a. 停止したAutonomous AI Databaseは、ECPUまたはOCPUを使用しません。Autonomous AI Databaseが停止している場合、請求されません。

    b. 実行中のAutonomous AI Databaseでは、割り当てられたECPUまたはOCPUの数と、自動スケーリングによる追加のECPUまたはOCPUが使用されます。Autonomous AI Databaseが実行されている場合、初期作成時に指定されたか、手動スケーリング操作によって後で指定されたかにかかわらず、データベースに現在割り当てられているCPUの数に対して請求される。また、データベースの自動スケーリングが有効になっている場合は、自動的にスケール・アップした結果としてデータベースで使用されている追加CPUの秒ごとに請求されます。

    ノート: AVMCおよびACDリソースの作成では、請求は開始されません。したがって、合計CPU数をAVMCに割り当て、各ACDは作成時にノード当たり8 ECPUまたは2 OCPUを消費しますが、これらのCPUは請求されません。AVMCおよび基礎となるACDでAutonomous AIデータベースをプロビジョニングし、そのデータベースがアクティブに実行されている場合にのみ、使用されたCPUが請求されます。その結果、ACDをAVMC内で作成して、追加コストを発生させることなく、事業部、機能領域、その他の手法に従ってデータベースを編成してグループ化できます。

    c. Autonomous AI Databaseを作成すると、Oracleにより追加のCPUが予約され、ノード障害が発生してもデータベースが50%以上の容量で実行されるようになります。ACDのプロビジョニング中に、ノード間で予約されたCPUの割合を0%または25%に変更できます。手順については、Autonomous Container Databaseの作成ノード・フェイルオーバーの予約を参照してください。これらの追加CPUは、請求に含まれません。

    ノート: Autonomous AI Database on Dedicated Exadata Infrastructure on Oracle Database@AWSでは、ECPUコンピュート・モデルのみがサポートされます。

  2. 1秒当たりの測定値は、各Autonomous AI Databaseの1時間間隔で平均化されます。

  3. Autonomous AI Databaseの1時間当たりの平均が加算され、Autonomous VMクラスタ・リソース全体の1時間当たりのCPU使用率が決定されます。

Autonomous AI Database on Dedicated Exadata Infrastructureデータベースのコンピュート・コストは、AVMCレベルで集計およびレポートされ、AVMC内のすべてのACDにわたるすべてのアクティブなAutonomous AIデータベースをカバーします。OCI Cost Analysisは、AVMCの使用量とコストを提供できます。

Autonomous AI Database当たりのコストを見積もるには、Autonomous AI Database全体の合計ECPUを合計し、各Autonomous AI Databaseの合計CPU消費のシェアに基づいてコストを割り当てます。たとえば:

AVMCが請求期間に請求済1500 ECPUを報告し、3つのAutonomous AIデータベースがアクティブである場合、データベースAは10 ECPU、データベースBは20 ECPU、データベースCは30 ECPUです。原価分割は次のとおりです。

これは、自動スケーリングのない固定CPUサイズと、請求期間中に3つのAutonomous AIデータベースすべてが実行されていることを前提としています。より正確にするために、「割当て済ECPU」メトリックを使用して、Autonomous AI Databaseごとの実際のECPU使用量を取得します。

次のように表示することをお薦めします。

エラスティック・プール請求

エラスティック・プールを使用すると、自律型AIデータベース・インスタンスをコンピュート・リソースの請求に関して統合できます。

エラスティック・プールは、自律型AIデータベース・インスタンスに適用される点を除き、携帯電話サービスの「ファミリー・プラン」のように考えることができます。データベースごとに個別に支払うのではなく、データベースがプールにグループ化され、プール全体に関連付けられたコンピュート使用に対してリーダーの1つのインスタンスが課金されます。エラスティック・リソース・プールの詳細は、エラスティック・プールを使用したAutonomous AI Databaseインスタンスの統合を参照してください。

エラスティック・リソース・プール使用率:

エラスティック・プールを使用すると、選択したプール・サイズで最大4倍のECPU数をプロビジョニングでき、エラスティック・プール内のデータベース・インスタンスは、データベース・インスタンス当たりわずか1 ECPUでプロビジョニングできます。エラスティック・プールの外では、データベース・インスタンス当たりの最小ECPU数は2 ECPUです。たとえば、プール・サイズが128の場合、512個のAutonomous AI Databaseインスタンスをプロビジョニングできます(各インスタンスに1個のECPUがある場合)。この例では、512個のAutonomous AI Databaseインスタンスにアクセスできる間、128個のECPUのプール・サイズに基づいてプール・サイズのコンピュート・リソースに対して請求されます。これに対して、エラスティック・プールを使用せずに512のAutonomous AI Databaseインスタンスを個別にプロビジョニングする場合、Autonomous AI Databaseインスタンスごとに少なくとも2つのECPUを割り当てる必要があります。この例では、1024 ECPUを支払います。エラスティック・プールを使用すると、コンピュート・コストを最大87%削減できます。

エラスティック・プールを作成すると、特定の時間の合計ECPU使用量が、プール・リーダーであるAutonomous AI Databaseインスタンスに課金されます。プール・リーダーを除き、プール・メンバーである個々のAutonomous AI Databaseインスタンスは、エラスティック・プールのメンバーである間、ECPU使用に対して課金されません。

エラスティック・プール請求は次のとおりです。

詳細は、Autonomous AI Database上のエラスティック・リソース・プールで最大87%のコンピュート・コスト削減を実現する方法を参照してください。

プールの作成時または終了時のエラスティック・プール請求

エラスティック・プールが作成または終了されると、リーダーはエラスティック・プールに対して1時間全体課金されます。また、プールに追加または削除された個々のインスタンスは、インスタンスがエラスティック・プールにない間に発生するコンピュート使用について請求されます(この場合、請求は個々のAutonomous AI Databaseインスタンスに適用されます)。

プール・メンバーまたはリーダーがプールを退出した場合のエラスティック・プール請求

エラスティック・プールを残したAutonomous AI Databaseインスタンスの請求は、個々のインスタンスが使用するコンピュート・リソースに基づいて個別のインスタンス請求に戻ります:

関連コンテンツ