Gestione della computazione in Autonomous AI Database su un'infrastruttura Exadata dedicata

Autonomous AI Database on Dedicated Exadata Infrastructure offre due modelli di computazione durante la configurazione delle risorse di Autonomous AI Database. Sono:

Il tipo di computazione del cluster VM Autonomous Exadata si applica a tutte le istanze Autonomous Container Database e Autonomous AI Database.

Gestione computazione

Le istanze di Autonomous AI Database vengono distribuite in un cluster VM Autonomous Exadata (AVMC) e in uno degli Autonomous Container Database (ACD) figlio. Le infrastrutture Exadata sono in grado di eseguire più AVMC. Le CPU allocate durante il provisioning di una risorsa AVMC saranno le totali CPU disponibili per i relativi database AI autonomi. Quando si creano più AVMC, ogni AVMC può avere il proprio valore per il totale delle CPU.

Più cluster VM Autonomous Exadata non è disponibile in alcuna distribuzione Oracle Public Cloud di risorse EI (Exadata Infrastructure) create prima dell'avvio della funzione Autonomous AI Database con più VM. Per le risorse dell'infrastruttura Exadata di generazione X8M e successive create dopo l'avvio della funzione AVMC multipla, ogni AVMC viene creato con un nodo cluster per ciascuno dei server della forma del sistema Exadata scelta. Per informazioni sulla limitazione di queste CPU totali tra gruppi diversi di utenti, vedere In che modo le quote compartimento influiscono sulla gestione della CPU.

Nota: il numero massimo di risorse AVMC e ACD che è possibile creare su una determinata infrastruttura Exadata varia in base alla generazione di hardware. Per i dettagli sui vincoli per ogni generazione, fai riferimento ai limiti delle risorse e alle caratteristiche delle forme dell'infrastruttura.

A livello AVMC o ACD, il numero totale di CPU disponibili per la creazione dei database è denominato CPU disponibili. A livello di risorsa AVMC, le CPU disponibili saranno uguali al totale delle CPU fino a quando non si crea il primo ACD. Dopo aver creato un ACD, 8 ECPU o 2 OCPU per nodo vengono allocate al nuovo ACD dalle CPU disponibili di AVMC. Pertanto, le CPU disponibili a livello di risorsa AVMC si riducono di conseguenza. Quando crei il primo Autonomous AI Database in tale ACD, il nuovo database utilizza le CPU inizialmente allocate (8 ECPU o 2 OCPU per nodo). Se il nuovo database richiede più di 8 ECPU o 2 OCPU, viene assegnato dalle CPU disponibili dell'AVMC padre, riducendo le CPU disponibili a livello di AVMC padre. Quando crei più ACD ed esegui il provisioning dei database AI autonomi all'interno di ogni ACD, il valore della CPU disponibile cambia di conseguenza.

Le CPU disponibili a livello di cluster VM Autonomous Exadata si applicano a tutti i relativi Autonomous Container Database. Questo conteggio delle CPU disponibili per il container database diventa importante se si utilizza la funzione di scala automatica, come descritto in Allocazione CPU durante la scala automatica.

Analogamente, quando si esegue manualmente lo scale up delle CPU di un Autonomous AI Database, le CPU vengono consumate dalle CPU disponibili a livello di AVMC padre e il relativo valore cambia di conseguenza.

Quando crei un Autonomous AI Database, per impostazione predefinita Oracle riserva CPU aggiuntive per garantire che il database possa essere eseguito con almeno il 50% di capacità anche in caso di errori dei nodi. Durante il provisioning di un ACD, puoi modificare la percentuale di CPU riservate tra i nodi allo 0% o al 25%. Per istruzioni, vedere Prenotazione del failover del nodo in Creare un Autonomous Container Database. Queste CPU aggiuntive non sono incluse nella fatturazione.

Quando un Autonomous AI Database è in esecuzione, ti verrà fatturato il numero di CPU attualmente allocate al database, specificate durante la creazione iniziale o in seguito da un'operazione di ridimensionamento manuale. Inoltre, se il ridimensionamento automatico è abilitato per il database, viene fatturato ogni secondo per eventuali CPU aggiuntive utilizzate dal database come risultato del ridimensionamento automatico. Per ulteriori informazioni su come viene misurata e calcolata la fatturazione, vedere Dettagli fatturazione CPU.

Quando un Autonomous AI Database viene arrestato, non viene fatturato alcun importo. Tuttavia, il numero di CPU ad esso allocate non viene restituito alle CPU disponibili al livello AVMC padre per la distribuzione complessiva.

Quando un Autonomous AI Database viene arrestato o ridimensionato, il numero di CPU ad esso allocate non viene immediatamente restituito alle CPU disponibili a livello AVMC padre per la distribuzione complessiva. Continuano a essere incluse nel conteggio delle CPU disponibili per il container database padre fino al riavvio del container database padre. Queste CPU sono denominate CPU recuperabili. Le CPU recuperabili a livello di AVMC padre sono la somma delle CPU recuperabili di tutti i relativi ACD. Quando un ACD viene riavviato, restituisce tutte le relative CPU recuperabili alle CPU disponibili a livello di AVMC padre.

Il riavvio di un Autonomous Container Database (ACD) è un'operazione in linea, eseguita in sequenza nel cluster e non comporterà tempi di inattività delle applicazioni se configurata in base alle procedure ottimali per utilizzare la continuità di applicazione trasparente.

Suggerimento: è possibile tenere traccia dei diversi attributi di computazione (CPU) descritti in questo articolo dalla pagina Dettagli di un cluster VM Autonomous Exadata (AVMC) o di Autonomous Container Database (ACD). Per istruzioni, vedere Registrazione uso risorse.

Allocazione CPU durante ridimensionamento automatico

La funzione di scala automatica consente a un Autonomous AI Database di utilizzare fino a tre volte più risorse CPU e I/O rispetto al conteggio di CPU allocato. In caso di overprovisioning della CPU, se tre volte il conteggio della CPU risulta in un valore inferiore a 1, verrà arrotondato al numero intero successivo. L'overprovisioning della CPU è supportato solo con OCPU. Per ulteriori dettagli, vedere Overprovisioning CPU.

Per garantire che nessun singolo Autonomous AI Database possa eseguire la scala automatica fino al consumo di tutte le CPU disponibili nel pool per la distribuzione complessiva, Oracle Autonomous AI Database sull'infrastruttura Exadata dedicata utilizza Autonomous Container Database come controllo limitante.

Durante il provisioning di un Autonomous AI Database abilitato per il ridimensionamento automatico in un ACD, se le CPU disponibili in tale ACD sono inferiori al valore CPU 3 volte del nuovo database, in tale ACD verranno riservate ulteriori CPU. Queste CPU sono denominate CPU riservate. Le CPU riservate garantiscono che le CPU disponibili a livello di ACD siano sempre maggiori o uguali al valore 3x della CPU del database abilitato per il ridimensionamento automatico più grande in tale ACD. Queste CPU riservate possono comunque essere utilizzate per creare o ridimensionare manualmente i database AI autonomi in questo ACD.

Quando si esegue lo scale-up automatico di un Autonomous AI Database, Oracle Autonomous AI Database sull'infrastruttura Exadata dedicata cerca CPU inattive nel container database padre. Se sono disponibili CPU inattive, viene eseguito lo scale up di Autonomous AI Database. In caso contrario, non lo è. I database hanno intrinsecamente molto tempo di inattività, quindi il ridimensionamento automatico è un modo per massimizzare l'uso delle risorse, controllando al contempo i costi e preservando un buon isolamento dai database in altri Autonomous Container Database.

Se la CPU utilizzata per ridimensionare automaticamente un Autonomous AI Database proviene da un altro Autonomous AI Database in esecuzione che viene caricato leggermente e quindi non utilizza tutte le CPU allocate, Oracle Autonomous AI Database sull'infrastruttura Exadata dedicata ridimensiona automaticamente il database con scala automatica se il carico aumenta sull'altro database e richiede la riconversione della CPU allocata.

Prendi in considerazione l'esempio di un Autonomous Container Database che ospita quattro database AI autonomi a 4 CPU in esecuzione, il tutto con la scala automatica abilitata. Il conteggio delle CPU disponibili per il container database ai fini della scala automatica è 12. Se uno di questi database deve essere ridimensionato automaticamente oltre le 4 CPU a causa dell'aumento del carico, Oracle Autonomous AI Database sull'infrastruttura Exadata dedicata eseguirà l'operazione di ridimensionamento automatico solo se uno o più degli altri database vengono caricati leggermente e non utilizzano tutte le CPU allocate. Il costo di fatturazione di questo esempio è di 16 CPU al minimo perché tutti e quattro i database 4 CPU sono sempre in esecuzione.

Al contrario, prendi in considerazione l'esempio di un Autonomous Container Database che ospita quattro Autonomous AI Database con 2 CPU in esecuzione, il tutto con la scala automatica abilitata e un Autonomous AI Database con 8 CPU arrestate. Il conteggio delle CPU disponibili per il container database ai fini della scala automatica è di nuovo 16. Se uno dei database in esecuzione deve essere ridimensionato automaticamente a causa dell'aumento del carico delle oltre 2 CPU, Oracle Autonomous AI Database sull'infrastruttura Exadata dedicata può eseguire l'operazione utilizzando le CPU allocate al database 8-CPU arrestato. In questo esempio, i quattro database in esecuzione possono utilizzare fino a un totale di 8 CPU aggiuntive contemporaneamente senza consumare le CPU allocate l'una dell'altra. Il costo di fatturazione di questo esempio è di sole 8 CPU al minimo perché solo i quattro database da 2 CPU sono sempre in esecuzione.

Per qualsiasi istanza del servizio Autonomous Data Guard, locale o tra più aree, il prezzo aggiuntivo sarà il numero di ECPU o OCPU prenotate quando hai creato o ridimensionato in modo esplicito l'istanza del servizio primario, indipendentemente dal fatto che la scala automatica sia abilitata o meno. Il consumo di ECPU o OCPU correlato alla scala automatica nelle istanze del servizio primario non si verifica nelle istanze del servizio di standby Autonomous Data Guard.

In che modo le quote compartimento influiscono sulla gestione della CPU

In genere, quando crei o esegui lo scale up di un Autonomous AI Database, la capacità di Oracle Autonomous AI Database su un'infrastruttura Exadata dedicata di soddisfare la tua richiesta dipende solo dalla disponibilità di CPU non allocate nel singolo pool di CPU nell'intera distribuzione.

Tuttavia, puoi utilizzare la funzione di quote di compartimento di Oracle Cloud Infrastructure per limitare ulteriormente, in un compartimento per compartimento, il numero di CPU disponibili per creare, ridimensionare manualmente e ridimensionare automaticamente i database AI autonomi di ogni tipo di carico di lavoro (Autonomous AI Lakehouse o Autonomous AI Transaction Processing) singolarmente.

In breve, è possibile utilizzare la funzione Quote di compartimento creando istruzioni dei criteri set, unset e zero per limitare la disponibilità di una determinata risorsa in un determinato compartimento. Per informazioni e istruzioni dettagliate, vedere Quote di compartimento.

Modalità di impatto dei nodi del cluster VM sulla gestione della CPU

La discussione precedente relativa alla gestione e all'allocazione della CPU indica che è possibile creare più risorse del cluster VM Autonomous Exadata (AVMC) scegliendo il conteggio di CPU per nodo durante il provisioning della risorsa AVMC.

Questa sezione tratterà dettagli granulari su come Oracle Cloud Infrastructure posiziona i database AI autonomi nei nodi del cluster VM e sulle conseguenze di tale posizionamento sul ridimensionamento automatico e sull'elaborazione parallela.

I seguenti attributi determinano quando e in che modo un Autonomous AI Database viene posizionato su più nodi:

La modalità di distribuzione della CPU di un Autonomous AI Database tra i nodi del cluster VM influisce sulle operazioni riportate di seguito.

In base all'utilizzo delle risorse su ogni nodo; non tutti i valori delle CPU disponibili possono essere utilizzati per eseguire il provisioning o ridimensionare i database AI autonomi. Si supponga, ad esempio, di disporre di 20 CPU disponibili a livello AVMC, che non sia possibile utilizzare tutti i valori da 1 a 20 CPU per eseguire il provisioning o ridimensionare i database AI autonomi a seconda della disponibilità delle risorse a livello di nodo. La lista di valori CPU che possono essere utilizzati per eseguire il provisioning o ridimensionare un Autonomous AI Database è denominata CPU con provisioning eseguito.

Quando provi a eseguire il provisioning o a ridimensionare un Autonomous AI Database dalla console OCI, il campo CPU ti fornirà un elenco a discesa con la lista di CPU di cui è possibile eseguire il provisioning. In alternativa, è possibile utilizzare le seguenti API per ottenere la lista dei valori CPU provvisori:

Contenuto correlato