Compute-Management in einer autonomen KI-Datenbank auf einer dedizierten Exadata-Infrastruktur

Die autonome KI-Datenbank auf dedizierter Exadata-Infrastruktur bietet zwei Rechenmodelle bei der Konfiguration Ihrer autonomen KI-Datenbankressourcen. Diese sind:

Der Compute-Typ des autonomen Exadata-VM-Clusters gilt für alle autonomen Containerdatenbanken und autonomen KI-Datenbankinstanzen.

Compute-Management

Autonome KI-Datenbankinstanzen werden in einem autonomen Exadata-VM-Cluster (AVMC) und in einer der untergeordneten autonomen Containerdatenbanken (ACD) bereitgestellt. Exadata-Infrastrukturen können mehrere AVMCs ausführen. Die CPUs, die Sie beim Provisioning einer AVMC-Ressource zuweisen, sind die gesamten CPUs, die für die autonomen KI-Datenbanken verfügbar sind. Wenn Sie mehrere AVMCs erstellen, kann jede AVMC einen eigenen Wert für Gesamt-CPUs haben.

Mehrere autonome VM-Exadata-VM-Cluster sind in keinem Oracle Public Cloud-Deployment von Exadata-Infrastrukturressourcen verfügbar, die vor dem Start des Features "Autonome VM-KI-Datenbank" erstellt wurden. Bei Exadata-Infrastrukturressourcen der X8M-Generierung und höher, die nach dem Start des Features "Mehrere AVMC" erstellt wurden, wird jeder AVMC mit einem Clusterknoten für jeden Server der ausgewählten Exadata-Systemausprägung erstellt. Informationen zum Einschränken dieser CPU-Gesamtanzahl über verschiedene Benutzergruppen hinweg finden Sie unter Auswirkungen von Compartment-Quotas auf die CPU-Verwaltung.

Hinweis: Die maximale Anzahl von AVMC- und ACD-Ressourcen, die Sie auf einer bestimmten Exadata-Infrastruktur erstellen können, variiert je nach Hardwaregenerierung. Einzelheiten zu Constraints für jede Generation finden Sie unter Ressourcenlimits und Eigenschaften von Infrastrukturausprägungen.

Auf AVMC- oder ACD-Ebene wird die Gesamtanzahl der CPUs, die zum Erstellen von Datenbanken verfügbar sind, als verfügbare CPUs bezeichnet. Auf AVMC-Ressourcenebene werden die verfügbaren CPUs bis zum Erstellen der ersten ACD mit den gesamten CPUs identisch. Nachdem Sie eine ACD erstellt hat, werden 8 ECPUs oder 2 OCPUs pro Knoten der neuen ACD aus den verfügbaren CPUs des AVMC zugewiesen. Die verfügbaren CPUs auf AVMC-Ressourcenebene werden also entsprechend reduziert. Wenn Sie die erste autonome KI-Datenbank in dieser ACD erstellen, belegt die neue Datenbank die anfänglich zugewiesenen CPUs (8 ECPUs oder 2 OCPUs pro Knoten). Wenn die neue Datenbank mehr als 8 ECPUs oder 2 OCPUs benötigt, werden sie von den verfügbaren CPUs des übergeordneten AVMC zugewiesen, indem die verfügbaren CPUs auf der übergeordneten AVMC-Ebene reduziert werden. Wenn Sie mehr ACDs erstellen und autonome KI-Datenbanken in jeder ACD bereitstellen, ändert sich der verfügbare CPU-Wert entsprechend.

Die verfügbaren CPUs auf der Ebene des autonomen Exadata-VM-Clusters gelten für alle autonomen Containerdatenbanken. Diese Anzahl der für die Containerdatenbank verfügbaren CPUs ist wichtig, wenn Sie das Autoscaling-Feature verwenden, wie unter CPU-Zuweisung bei Autoscaling beschrieben.

Wenn Sie die CPUs einer autonomen KI-Datenbank manuell vertikal skalieren, werden die CPUs von den verfügbaren CPUs auf der übergeordneten AVMC-Ebene belegt, und der Wert ändert sich entsprechend.

Wenn Sie eine autonome KI-Datenbank erstellen, reserviert Oracle standardmäßig zusätzliche CPUs, um sicherzustellen, dass die Datenbank auch bei Knotenausfällen mit mindestens 50% Kapazität ausgeführt werden kann. Beim Provisioning einer ACD können Sie den Prozentsatz der knotenübergreifend reservierten CPUs auf 0% oder 25% ändern. Anweisungen finden Sie unter Node Failover-Reservierung in Autonome Containerdatenbank erstellen. Diese zusätzlichen CPUs sind in der Abrechnung nicht enthalten.

Bei der Ausführung einer autonomen KI-Datenbank wird Ihnen die Anzahl der CPUs in Rechnung gestellt, die der Datenbank derzeit zugewiesen sind, unabhängig vom Zeitpunkt der Erstellung oder später durch einen manuellen Skalierungsvorgang. Wenn Autoscaling für die Datenbank aktiviert ist, wird Ihnen außerdem jede Sekunde für zusätzliche CPUs in Rechnung gestellt, die von der Datenbank aufgrund einer automatischen vertikalen Skalierung verwendet werden. Weitere Informationen zur Messung und Berechnung für die Abrechnung finden Sie unter CPU-Abrechnungsdetails.

Wenn eine autonome KI-Datenbank gestoppt wird, werden Ihnen keine Gebühren in Rechnung gestellt. Die Anzahl der ihr zugewiesenen CPUs wird jedoch nicht an die verfügbaren CPUs auf der übergeordneten AVMC-Ebene für das gesamte Deployment zurückgegeben.

Wenn eine autonome KI-Datenbank beendet oder vertikal skaliert wird, wird die Anzahl der ihr zugewiesenen CPUs nicht sofort an die verfügbaren CPUs auf der übergeordneten AVMC-Ebene für das Gesamt-Deployment zurückgegeben. Sie werden weiterhin in die Anzahl der CPUs aufgenommen, die ihrer übergeordneten Containerdatenbank zur Verfügung stehen, bis diese übergeordnete Containerdatenbank neu gestartet wird. Diese CPUs werden als freigabefähige CPUs bezeichnet. Die freizugebenden CPUs auf der übergeordneten AVMC-Ebene sind die Summe der freizugebenden CPUs aller ACDs. Wenn eine ACD neu gestartet wird, werden alle ihre freizugebenden CPUs an die verfügbaren CPUs auf der übergeordneten AVMC-Ebene zurückgegeben.

Der Neustart einer autonomen Containerdatenbank (ACD) ist ein Onlinevorgang, der im gesamten Cluster rollierend ausgeführt wird und keine Ausfallzeit der Anwendung zur Folge hat, wenn er gemäß den Best Practices für die Verwendung von Transparent Application Continuity konfiguriert wurde.

Tipp: Sie können die verschiedenen Compute-(CPU-)Attribute, die in diesem Artikel beschrieben werden, auf der Seite Details eines autonomen Exadata-VM-Clusters (AVMC) oder einer autonomen Containerdatenbank (ACD) verfolgen. Weitere Informationen finden Sie unter Nachverfolgung der Ressourcenverwendung.

CPU-Zuweisung bei Autoscaling

Mit dem Autoscaling-Feature kann eine autonome KI-Datenbank bis zu dreimal mehr CPU- und I/O-Ressourcen nutzen als die zugewiesene CPU-Anzahl. Wenn bei einem CPU-Overprovisioning das Dreifache der CPU-Anzahl einen Wert kleiner als 1 ergibt, wird diese auf die nächste Ganzzahl gerundet. CPU-Overprovisioning wird nur mit OCPUs unterstützt. Weitere Informationen finden Sie unter CPU-Overprovisioning.

Um sicherzustellen, dass keine einzelne autonome KI-Datenbank automatisch skaliert werden kann, um alle im Pool für das gesamte Deployment verfügbaren CPUs zu nutzen, verwendet Oracle Autonomous AI Database on Dedicated Exadata Infrastructure die autonome Containerdatenbank als Begrenzungssteuerung.

Wenn beim Provisioning einer autonomen KI-Datenbank mit aktiviertem Autoscaling in einer ACD die verfügbaren CPUs in dieser ACD kleiner als der 3-fache CPU-Wert der neuen Datenbank ist, werden zusätzliche CPUs in dieser ACD reserviert. Diese CPUs werden als reservierte CPUs bezeichnet. Reservierte CPUs stellen sicher, dass die verfügbaren CPUs auf ACD-Ebene immer größer oder gleich dem 3-fachen CPU-Wert der größten Datenbank mit aktiviertem Autoscaling in dieser ACD sind. Diese reservierten CPUs können weiterhin zum Erstellen oder manuellen Skalieren autonomer KI-Datenbanken in dieser ACD verwendet werden.

Wenn eine autonome KI-Datenbank automatisch skaliert wird, sucht Oracle Autonomous AI Database auf dedizierter Exadata-Infrastruktur nach inaktiven CPUs in der übergeordneten Containerdatenbank. Wenn inaktive CPUs verfügbar sind, wird die autonome KI-Datenbank vertikal skaliert, andernfalls nicht. Datenbanken haben grundsätzlich viel Leerlaufzeit. Daher ist Autoscaling eine Möglichkeit, die Ressourcennutzung zu maximieren sowie gleichzeitig Kosten zu kontrollieren und eine gute Isolation von Datenbanken in anderen autonomen Containerdatenbanken zu gewährleisten.

Wenn die CPU, die für die automatische Skalierung einer autonomen KI-Datenbank verwendet wurde, aus einer anderen ausgeführten autonomen KI-Datenbank stammt, die leicht geladen ist und daher nicht alle zugewiesenen CPUs verwendet, skaliert Oracle Autonomous AI Database on Dedicated Exadata Infrastructure die automatisch skalierte Datenbank automatisch herunter, wenn die Last in der anderen Datenbank steigt und die zugewiesene CPU zurück benötigt wird.

Betrachten Sie das Beispiel einer autonomen Containerdatenbank, in der vier autonome KI-Datenbanken mit 4 CPUs gehostet werden, für die das Autoscaling aktiviert ist. Die Anzahl der CPUs, die der Containerdatenbank für Autoscaling-Zwecke zur Verfügung stehen, beträgt 12. Wenn einer dieser Datenbanken aufgrund einer Erhöhung der Last automatisch über 4 CPUs skaliert werden muss, führt Oracle Autonomous AI Database auf dedizierter Exadata-Infrastruktur den Autoscaling-Vorgang nur aus, wenn mindestens eine der anderen Datenbanken gering geladen ist und nicht alle zugewiesenen CPUs verwendet werden. Die Abrechnungskosten in diesem Beispiel belaufen sich mindestens auf 16 CPUs, da alle vier Datenbanken mit 4 CPUs immer ausgeführt werden.

Betrachten Sie im Gegensatz dazu das Beispiel einer autonomen Containerdatenbank, die vier autonome 2-CPU-KI-Datenbanken mit aktivierter Autoscaling-Funktion hostet, und eine autonome 8-CPU-KI-Datenbank mit angehaltener CPU. Die Anzahl der CPUs, die der Containerdatenbank für Autoscaling-Zwecke zur Verfügung stehen, beträgt erneut 16. Wenn eine der ausgeführten Datenbanken aufgrund einer Lasterhöhung über 2 CPUs automatisch skaliert werden muss, kann Oracle Autonomous AI Database auf dedizierter Exadata-Infrastruktur den Vorgang mit CPUs ausführen, die der gestoppten 8-CPU-Datenbank zugewiesen sind. In diesem Beispiel können die vier ausgeführten Datenbanken bis zu 8 zusätzliche CPUs gleichzeitig nutzen, ohne dass die zugewiesenen CPUs der anderen belegt werden. Die Abrechnungskosten in diesem Beispiel belaufen sich nur auf mindestens 8 CPUs, da nur die vier Datenbanken mit 2 CPUs immer ausgeführt werden.

Bei jeder lokalen oder regionsübergreifenden Autonomous Data Guard-Serviceinstanz entspricht die zusätzliche Preisgestaltung der Anzahl der ECPUs oder OCPUs, die Sie beim Erstellen oder expliziten Skalieren Ihrer primären Serviceinstanz reserviert haben, unabhängig davon, ob Autoscaling aktiviert ist oder nicht. Autoscaling-bezogene ECPU- oder OCPU-Nutzung auf Primärserviceinstanzen erfolgt nicht auf Autonomous Data Guard-Standbyserviceinstanzen.

Auswirkungen von Compartment-Quotas auf das CPU-Management

Wenn Sie eine autonome KI-Datenbank erstellen oder vertikal skalieren, hängt die Fähigkeit von Oracle Autonomous AI Database auf einer dedizierten Exadata-Infrastruktur zur Erfüllung Ihrer Anforderung nur von der Verfügbarkeit nicht zugewiesener CPUs im einzelnen CPU-Pool über das gesamte Deployment ab.

Mit dem Feature für Compartment Quotas von Oracle Cloud Infrastructure können Sie jedoch die Anzahl der verfügbaren CPUs für das Erstellen, manuelle Skalieren und automatische Skalieren autonomer KI-Datenbanken jedes Workload-Typs (Autonomous AI Lakehouse oder Autonomous AI Transaction Processing) einzeln auf Compartment-Basis weiter einschränken.

Kurz gesagt, verwenden Sie das Feature für Compartment Quotas, indem Sie set-, unset- und zero-Policy-Anweisungen erstellen, um die Verfügbarkeit einer bestimmten Ressource in einem bestimmten Compartment einzuschränken. Weitere Informationen und Anweisungen finden Sie unter Compartment Quotas.

Auswirkungen von VM-Clusterknoten auf das CPU-Management

In der vorherigen Erläuterung zu CPU-Management- und Zuweisungsstatus können Sie mehrere autonome Exadata-VM-Cluster-(AVMC-)Ressourcen erstellen, indem Sie die CPU-Anzahl pro Knoten beim Provisioning der AVMC-Ressource auswählen.

In diesem Abschnitt werden detaillierte Details erläutert, wie Oracle Cloud Infrastructure autonome KI-Datenbanken in den VM-Clusterknoten platziert und wie sich die Platzierung auf das Autoscaling und das parallele Verarbeiten auswirkt.

Die folgenden Attribute bestimmen, wann und wie eine autonome KI-Datenbank auf mehreren Knoten platziert wird:

Wie sich die Verteilung der CPU-Zuweisung einer autonomen KI-Datenbank auf VM-Clusterknoten auf die folgenden Vorgänge auswirken:

Je nach Ressourcenauslastung auf den einzelnen Knoten können nicht alle Werte der verfügbaren CPUs zum Bereitstellen oder Skalieren autonomer KI-Datenbanken verwendet werden. Beispiel: Angenommen, Sie haben 20 CPUs auf AVMC-Ebene verfügbar. Abhängig davon, ob die Ressourcenverfügbarkeit auf Knotenebene vorhanden ist, können nicht alle Werte von 1 bis 20 CPUs zum Bereitstellen oder Skalieren autonomer Datenbanken verwendet werden. Die Liste der CPU-Werte, mit denen eine autonome KI-Datenbank bereitgestellt oder skaliert werden kann, wird als bereitstellbare CPUs bezeichnet.

Wenn Sie versuchen, eine autonome KI-Datenbank über die OCI-Konsole bereitzustellen oder zu skalieren, wird im Feld "CPU" eine Dropdown-Liste mit der Liste der bereitstellbaren CPUs angezeigt. Alternativ können Sie die folgenden APIs verwenden, um die Liste der vorläufigen CPU-Werte abzurufen:

Verwandte Inhalte