Autonome KI-Datenbank auf dedizierter Exadata-Infrastruktur abrechnen

Oracle Autonomous AI Database on Dedicated Exadata Infrastructure verwendet spezifische Algorithmen, um die von autonomen KI-Datenbanken verwendete Compute-Instanz zuzuweisen und zu berechnen. Durch das Verständnis dieser Algorithmen können Sie bestimmen, wie Sie Ihre autonomen KI-Datenbanken am besten erstellen und konfigurieren, um Performanceziele in möglichst kosteneffektiver Weise zu erreichen.

CPU-Abrechnungsdetails

Oracle Autonomous AI Database on Dedicated Exadata Infrastructure berechnet die CPU-Abrechnung wie folgt:

  1. Die CPU-Auslastung für jede autonome KI-Datenbank wird jede Sekunde in Einheiten ganzer ECPU oder OCPU gemessen.

    a. Eine gestoppte autonome KI-Datenbank verwendet keine ECPU oder OCPU. Wenn eine autonome KI-Datenbank gestoppt wird, werden Ihnen keine Gebühren in Rechnung gestellt.

    b. Eine aktive autonome KI-Datenbank verwendet die zugewiesene Anzahl von ECPUs oder OCPUs sowie zusätzliche ECPUs oder OCPUs aufgrund von Autoscaling. Wenn eine autonome KI-Datenbank ausgeführt wird, wird Ihnen die Anzahl der CPUs in Rechnung gestellt, die der Datenbank derzeit zugewiesen sind. Dabei spielt es keine Rolle, ob diese beim Erstellen oder später durch einen manuellen Skalierungsvorgang angegeben wurde. Wenn Autoscaling für die Datenbank aktiviert ist, wird Ihnen außerdem jede Sekunde für zusätzliche CPUs in Rechnung gestellt, die von der Datenbank aufgrund einer automatischen vertikalen Skalierung verwendet werden.

    Hinweis: Beim Erstellen von AVMC- und ACD-Ressourcen wird keine Fakturierung gestartet. Auch wenn Sie einem AVMC eine Gesamt-CPU-Anzahl zuweisen und jede ACD beim Erstellen 8 ECPUs oder 2 OCPUs pro Knoten belegt, werden diese CPUs nicht in Rechnung gestellt. Erst wenn Sie autonome KI-Datenbanken in einem AVMC und einer zugrunde liegenden ACD bereitstellen und diese Datenbank aktiv ausgeführt wird, werden die verwendeten CPUs abgerechnet. Infolgedessen können Sie ACDs in AVMCs erstellen, um Datenbanken nach Ihren Geschäftsbereichen, Funktionsbereichen oder anderen Techniken zu organisieren und gruppieren, ohne dass zusätzliche Kosten entstehen.

    c. Wenn Sie eine autonome KI-Datenbank erstellen, reserviert Oracle standardmäßig zusätzliche CPUs, um sicherzustellen, dass die Datenbank auch bei Knotenausfällen mit mindestens 50% Kapazität ausgeführt werden kann. Beim Provisioning einer ACD können Sie den Prozentsatz der knotenübergreifend reservierten CPUs auf 0% oder 25% ändern. Anweisungen finden Sie unter Node Failover-Reservierung in Autonome Containerdatenbank erstellen. Diese zusätzlichen CPUs sind in der Abrechnung nicht enthalten.

    Hinweis: Die autonome KI-Datenbank auf einer dedizierten Exadata-Infrastruktur auf Oracle Database@AWS unterstützt nur das ECPU-Compute-Modell.

  2. Die Messungen pro Sekunde werden pro Stunde für jedes Stundenintervall für jede autonome KI-Datenbank gemittelt.

  3. Die Durchschnittswerte pro Stunde für die autonomen KI-Datenbanken werden zusammen hinzugefügt, um die CPU-Auslastung pro Stunde für die gesamte autonome VM-Clusterressource zu bestimmen.

Die Compute-Kosten der autonomen KI-Datenbank auf dedizierter Exadata-Infrastruktur werden auf AVMC-Ebene aggregiert und gemeldet und decken alle aktiven autonomen KI-Datenbanken über alle ACDs im AVMC ab. Die OCI-Kostenanalyse kann die Nutzung und Kosten des AVMC bereitstellen.

Um die Kosten pro autonomer KI-Datenbank zu schätzen, summieren Sie die gesamten ECPUs in den autonomen KI-Datenbanken, und weisen Sie die Kosten basierend auf dem Anteil jeder autonomen KI-Datenbank am gesamten CPU-Verbrauch zu. Beispiel:

Wenn der AVMC 1500 in Rechnung gestellte ECPUs für einen Abrechnungszeitraum meldet und drei autonome KI-Datenbanken aktiv sind, Datenbank A mit 10 ECPUs, Datenbank B mit 20 ECPUs und Datenbank C mit 30 ECPUs. Die Kostenaufteilung lautet:

Dabei wird von festen CPU-Größen ohne Autoscaling ausgegangen, und alle 3 autonomen KI-Datenbanken wurden während des Abrechnungszeitraums ausgeführt. Um die Genauigkeit zu erhöhen, verwenden Sie die Metrik Zugewiesene ECPUs, um die tatsächliche ECPU-Nutzung pro autonomer KI-Datenbank zu erfassen.

Es wird empfohlen, Folgendes zu sehen:

Flexible Poolfakturierung

Mit einem elastischen Pool können Sie Ihre autonomen KI-Datenbankinstanzen in Bezug auf die Abrechnung der Compute-Ressourcen konsolidieren.

Sie können sich einen elastischen Pool wie einen Mobilfunkdienst "Familienplan" vorstellen, außer dies gilt für Ihre autonomen KI-Datenbankinstanzen. Anstatt für jede Datenbank einzeln zu zahlen, werden die Datenbanken in einem Pool gruppiert, in dem eine Instanz, der Leader, für die Compute-Nutzung berechnet wird, die mit dem gesamten Pool verknüpft ist. Vollständige Details zu elastischen Ressourcenpools finden Sie unter Autonome KI-Datenbankinstanzen mit elastischen Pools konsolidieren.

Elastic Resource Pool-Nutzung:

Mit einem elastischen Pool können Sie bis zu das Vierfache der ECPUs über die ausgewählte Poolgröße bereitstellen. Außerdem können Sie Datenbankinstanzen im elastischen Pool mit nur 1 ECPU pro Datenbankinstanz bereitstellen. Außerhalb eines elastischen Pools beträgt die Mindestanzahl an ECPUs pro Datenbankinstanz 2 ECPUs. Beispiel: Bei einer Poolgröße von 128 können Sie 512 autonome AI-Datenbankinstanzen bereitstellen (wenn jede Instanz 1 ECPU hat). In diesem Beispiel werden die Compute-Ressourcen der Poolgröße basierend auf der Poolgröße von 128 ECPUs in Rechnung gestellt, während Sie Zugriff auf 512 autonome AI-Datenbankinstanzen haben. Wenn Sie hingegen 512 autonome KI-Datenbankinstanzen einzeln bereitstellen, ohne einen elastischen Pool zu verwenden, müssen Sie jeder autonomen KI-Datenbankinstanz mindestens 2 ECPUs zuweisen. In diesem Beispiel würden Sie für 1024 ECPUs bezahlen. Die Verwendung eines elastischen Pools bietet bis zu 87% Rechenkosteneinsparungen.

Nach dem Erstellen eines elastischen Pools wird die gesamte ECPU-Nutzung für eine bestimmte Stunde der Instanz der autonomen KI-Datenbank (dem Poolleiter) in Rechnung gestellt. Mit Ausnahme des Poolleiters werden einzelnen autonomen KI-Datenbankinstanzen, die Poolmitglieder sind, keine ECPU-Nutzung berechnet, während sie Mitglieder eines elastischen Pools sind.

Die Abrechnung des elastischen Pools erfolgt wie folgt:

Weitere Informationen finden Sie unter So erzielen Sie bis zu 87% Compute-Kosteneinsparungen mit elastischen Ressourcenpools in einer autonomen KI-Datenbank.

Flexible Poolfakturierung, wenn ein Pool erstellt oder beendet wird

Wenn ein elastischer Pool erstellt oder beendet wird, wird der Leader für die gesamte Stunde für den elastischen Pool in Rechnung gestellt. Darüber hinaus werden einzelnen Instanzen, die entweder dem Pool hinzugefügt oder daraus entfernt werden, jede Compute-Nutzung in Rechnung gestellt, die auftritt, während sich die Instanz nicht im elastischen Pool befindet (in diesem Fall gilt die Abrechnung für die einzelne Instanz der autonomen KI-Datenbank).

Elastic Pool Billing, wenn ein Poolmitglied oder Leader den Pool verlässt

Die Abrechnung für eine autonome KI-Datenbankinstanz, die einen elastischen Pool verlässt, erfolgt basierend auf den Compute-Ressourcen, die von der einzelnen Instanz verwendet werden, an die Abrechnung für einzelne Instanzen:

Verwandte Inhalte