Fatturazione di Autonomous AI Database su un'infrastruttura Exadata dedicata
Oracle Autonomous AI Database on Dedicated Exadata Infrastructure utilizza algoritmi specifici per allocare e fatturare l'uso della computazione utilizzata da Autonomous AI Database. Comprendere questi algoritmi può aiutarti a determinare il modo migliore per creare e configurare i tuoi database AI autonomi per raggiungere gli obiettivi di performance nel modo più conveniente.
Dettagli fatturazione CPU
Oracle Autonomous AI Database on Dedicated Exadata Infrastructure calcola la fatturazione della CPU come segue:
-
L'uso della CPU per ogni Autonomous AI Database viene misurato ogni secondo in unità di tutta ECPU o OCPU.
a. Un Autonomous AI Database arrestato utilizza zero ECPU o OCPU. Quando un Autonomous AI Database viene arrestato, non viene fatturato alcun importo.
b. Un Autonomous AI Database in esecuzione utilizza il numero allocato di ECPU o OCPU, oltre a qualsiasi ECPU o OCPU aggiuntiva a causa del ridimensionamento automatico. Quando un Autonomous AI Database è in esecuzione, ti verrà fatturato il numero di CPU attualmente allocate al database, specificate al momento della creazione iniziale o successivamente da un'operazione di ridimensionamento manuale. Inoltre, se il ridimensionamento automatico è abilitato per il database, viene fatturato ogni secondo per eventuali CPU aggiuntive utilizzate dal database come risultato del ridimensionamento automatico.
Nota: la creazione di risorse AVMC e ACD non avvia la fatturazione. Pertanto, anche se si assegna un conteggio totale di CPU a un AVMC e ogni ACD consuma 8 ECPU o 2 OCPU per nodo quando vengono create, queste CPU non vengono fatturate. Solo una volta eseguito il provisioning dei database AI autonomi in un AVMC e in un ACD di base e che il database è in esecuzione, le CPU utilizzate verranno fatturate. Di conseguenza, puoi creare ACD all'interno degli AVMC per organizzare e raggruppare i tuoi database in base alle tue linee di business, aree funzionali o qualche altra tecnica senza preoccuparti di sostenere costi.
c. Quando crei un Autonomous AI Database, per impostazione predefinita Oracle riserva CPU aggiuntive per garantire che il database possa essere eseguito con almeno il 50% di capacità anche in caso di errori dei nodi. Durante il provisioning di un ACD, puoi modificare la percentuale di CPU riservate tra i nodi allo 0% o al 25%. Per istruzioni, vedere Prenotazione del failover del nodo in Creare un Autonomous Container Database. Queste CPU aggiuntive non sono incluse nella fatturazione.
Nota: Autonomous AI Database on Dedicated Exadata Infrastructure su Oracle Database@AWS supporta solo il modello di computazione ECPU.
-
Le misurazioni al secondo vengono calcolate in media in ogni intervallo di ore per ogni Autonomous AI Database.
-
Le medie orarie per i database AI autonomi vengono aggiunte insieme per determinare l'uso della CPU all'ora nell'intera risorsa del cluster VM Autonomous.
I costi di computazione del database di Autonomous AI Database on Dedicated Exadata Infrastructure vengono aggregati e riportati a livello AVMC, coprendo tutti i database AI autonomi attivi in tutti gli ACD nell'AVMC. OCI Cost Analysis può fornire l'uso e il costo di AVMC.
Per stimare il costo per Autonomous AI Database, sommare le ECPU totali tra i database AI autonomi e allocare il costo in base alla quota di ciascun Autonomous AI Database sul consumo totale di CPU. Ad esempio:
Se AVMC segnala 1500 ECPU fatturate per un periodo di fatturazione e tre Autonomous AI Database sono attivi; Database A con 10 ECPU, Database B con 20 ECPU e Database C con 30 ECPU. Il frazionamento dei costi è:
-
Database A: 10/(10+20+30) = 16,67% di 1500
-
Database B: 20/(10+20+30) = 33,33% di 1500
-
Database C: 30/(10+20+30) = 50% di 1500
Ciò presuppone dimensioni CPU fisse senza scala automatica e tutti e 3 i database AI autonomi erano in esecuzione durante il periodo di fatturazione. Per una maggiore precisione, utilizza la metrica ECPU allocate per acquisire l'uso effettivo di ECPU per Autonomous AI Database.
Si consiglia di visualizzare quanto segue.
-
Gestione della computazione in Autonomous AI Database per scoprire in che modo le CPU si spostano tra le categorie CPU totali, disponibili e recuperabili con l'uso e la modalità di fatturazione.
-
Allocazione CPU durante la scala automatica per capire in che modo le CPU allocate con la scala automatica influiscono sulla fatturazione, con esempi specifici.
-
Analisi dei costi per visualizzare, monitorare e ottimizzare le spese di Oracle Cloud Infrastructure.
Fatturazione Elastic Pool
Un pool elastico consente di consolidare le istanze di Autonomous AI Database in termini di fatturazione delle risorse di computazione.
Puoi pensare a un pool elastico come a un "piano famiglia" del servizio di telefonia mobile, ad eccezione di ciò che si applica alle istanze di Autonomous AI Database. Invece di pagare singolarmente per ogni database, i database vengono raggruppati in un pool in cui un'istanza, il leader, viene addebitata per l'uso della computazione associato all'intero pool. Per informazioni complete sui pool di risorse elastiche, vedere Consolidare le istanze di Autonomous AI Database utilizzando i pool elastici.
Uso elastico del pool di risorse:
-
Viene fatturata al leader del pool e la fatturazione si basa sulla dimensione del pool di risorse elastiche e sull'uso effettivo orario dell'ECPU del leader del pool e dei membri.
-
Può superare la dimensione del pool (la capacità del pool può essere fino a quattro volte maggiore della dimensione del pool).
-
La fatturazione è composta solo da risorse di computazione, ovvero l'uso di ECPU e tutto l'uso della computazione viene addebitato all'istanza di Autonomous AI Database che è il leader del pool.
Utilizzando un pool elastico, puoi eseguire il provisioning fino a quattro volte il numero di ECPU rispetto alla dimensione del pool selezionata e puoi eseguire il provisioning delle istanze di database che si trovano nel pool elastico con un minimo di 1 ECPU per ogni istanza di database. Al di fuori di un pool elastico, il numero minimo di ECPU per ogni istanza di database è di 2 ECPU. Ad esempio, con una dimensione pool di 128, è possibile eseguire il provisioning di 512 istanze di Autonomous AI Database (quando ogni istanza dispone di 1 ECPU). In questo esempio, ti verranno addebitate le risorse di computazione delle dimensioni del pool, in base alla dimensione del pool di 128 ECPU, mentre hai accesso a 512 istanze di Autonomous AI Database. Al contrario, quando esegui singolarmente il provisioning di 512 istanze di Autonomous AI Database senza utilizzare un pool elastico, devi allocare un minimo di 2 ECPU per ogni istanza di Autonomous AI Database. In questo esempio, si paga per 1024 ECPU. L'uso di un pool elastico consente un risparmio sui costi di computazione fino all'87%.
Dopo aver creato un pool elastico, l'uso totale di ECPU per un'ora specifica viene addebitato all'istanza di Autonomous AI Database, ovvero il leader del pool. Ad eccezione del leader del pool, le singole istanze di Autonomous AI Database che sono membri del pool non vengono addebitate per l'uso di ECPU mentre sono membri di un pool elastico.
La fatturazione Elastic Pool è la seguente:
-
Se l'utilizzo totale delle ECPU di picco aggregate è uguale o inferiore alla dimensione del pool per un'ora specifica, viene addebitato il costo per il numero di ECPU della dimensione del pool (una volta la dimensione del pool).
-
Dopo la creazione di un pool elastico, la fatturazione ECPU continua almeno una volta la tariffa della dimensione del pool, anche quando i database dei membri del pool e il leader del pool vengono arrestati.
-
In altre parole, se l'utilizzo dell'ECPU di picco aggregato del pool è inferiore o uguale alla dimensione del pool per un'ora specifica, viene addebitato il numero di ECPU della dimensione del pool (una volta la dimensione del pool). Ciò rappresenta un risparmio sui costi di computazione fino all'87% nel caso in cui questi database vengano fatturati separatamente senza utilizzare pool elastici.
-
Se l'utilizzo dell'ECPU di picco aggregato del leader del pool e dei membri supera la dimensione del pool in qualsiasi momento in un'ora di fatturazione specifica:
-
L'utilizzo dell'ECPU di picco aggregato del pool è uguale o inferiore a due volte il numero di ECPU di dimensione del pool: per l'uso maggiore di una volta dimensione pool numero di ECPU e fino a un massimo di due volte il numero di ECPU in una determinata ora di fatturazione: la fatturazione oraria è due volte il numero di dimensioni pool di ECPU. In altre parole, se l'utilizzo dell'ECPU di picco aggregato del pool supera la dimensione del pool, ma è inferiore o uguale a due volte la dimensione del pool per un'ora specifica, viene addebitato il doppio del numero di ECPU delle dimensioni del pool (due volte la dimensione del pool). Ciò rappresenta un risparmio sui costi di computazione fino al 75% nel caso in cui questi database vengano fatturati separatamente senza utilizzare pool elastici.
-
L'utilizzo di ECPU di picco aggregato del pool è uguale o inferiore a quattro volte il numero di ECPU di dimensione del pool: per l'uso maggiore di due volte il pool dimensione numero di ECPU e fino a quattro volte il numero di dimensioni pool di ECPU in un'ora di fatturazione specifica, la fatturazione oraria è quattro volte il numero di dimensioni pool di ECPU. In altre parole, se l'utilizzo dell'ECPU di picco aggregato del pool supera il doppio della dimensione del pool per un'ora specifica, viene addebitato un costo pari a quattro volte il numero di ECPU della dimensione del pool (quattro volte la dimensione del pool). Ciò rappresenta un risparmio sui costi di computazione fino al 50% nel caso in cui questi database vengano fatturati separatamente senza utilizzare pool elastici.
-
-
Ad esempio, si consideri un pool elastico con una dimensione pool di 128 ECPU e una capacità pool di 512 ECPU:
-
Caso 1: il picco aggregato di utilizzo dell'ECPU del leader del pool e dei membri è di 40 ECPU tra le 2:00 e le 2:30 pm e 128 ECPU tra le 2:30 e le 3:00 pm.
- Il pool elastico viene fatturato di 128 ECPU, una volta la dimensione del pool, per questa ora di fatturazione (2-3 pm). Questo caso si applica quando l'uso massimo aggregato di ECPU del pool elastico per l'ora di fatturazione è inferiore o uguale a 128 ECPU.
-
Caso 2: il picco aggregato di utilizzo dell'ECPU del leader del pool e dei membri è di 40 ECPU tra le 2:00 e le 2:30 pm e 250 ECPU tra le 2:30 e le 3:00 pm.
- Il pool elastico viene fatturato 256 ECPU due volte la dimensione del pool per questa ora di fatturazione (2-3 pm). Questo caso si applica quando l'uso massimo aggregato di ECPU del pool elastico per l'ora di fatturazione è inferiore o uguale a 256 ECPU e maggiore di 128 ECPU.
-
Caso 3: il picco di utilizzo aggregato dell'ECPU del leader del pool e dei membri è di 80 ECPU tra le 2:00 e le 2:30 pm e 509 ECPU tra le 2:30 e le 3:00 pm.
- Il pool elastico viene fatturato di 512 ECPU, quattro volte la dimensione del pool, per questa ora di fatturazione (2-3 pm). Questo caso si applica quando l'uso massimo aggregato di ECPU del pool elastico per l'ora di fatturazione è inferiore o uguale a 512 ECPU e maggiore di 256 ECPU.
-
Per ulteriori dettagli, vedere Come ottenere risparmi sui costi di computazione fino all'87% con pool di risorse elastiche su un Autonomous AI Database.
Fatturazione Elastic Pool quando un pool viene creato o terminato
Quando viene creato o terminato un pool elastico, il leader viene fatturato per l'intera ora per il pool elastico. Inoltre, le singole istanze aggiunte o rimosse dal pool vengono fatturate per qualsiasi uso di computazione che si verifica mentre l'istanza non si trova nel pool elastico (in questo caso, la fatturazione si applica alla singola istanza di Autonomous AI Database).
-
Esempio di creazione del pool: si supponga che un'istanza di Autonomous AI Database con 4 ECPU non faccia parte di alcun pool elastico. Alle 2:15, se si crea un pool elastico con questa istanza con una dimensione pool di 128 ECPU, l'istanza diventa leader del pool. Supponendo che l'Autonomous AI Database sia inattivo tra le 2 e le 3 del pomeriggio e che non ci siano altre istanze di Autonomous AI Database nel pool, la fatturazione per l'ora tra le 2 e le 3 del pomeriggio è la seguente:
-
La fattura per il periodo 2-3 pm è: (4 * 0,25) + 128 = 129 ECPU.
-
Dove (4 * 0,25) è la fatturazione per il calcolo per i quindici minuti prima che l'istanza di Autonomous AI Database creasse il pool elastico (durante il periodo compreso tra le 2 e le 2:15 pm, l'istanza verrà fatturata nel cluster VM) e 128 ECPU è la fatturazione per il pool elastico per l'ora in cui viene creato.
-
-
Esempio di interruzione del pool: si supponga che un'istanza di Autonomous AI Database con 4 ECPU sia il leader di un pool elastico e che la dimensione del pool sia pari a 128 ECPU. Alle 4:30, se interrompi il pool elastico, il database diventa un'istanza di Autonomous AI Database standalone, non parte di alcun pool elastico. Supponendo che l'Autonomous AI Database sia inattivo tra le 4 e le 5 del pomeriggio e che non ci siano altre istanze di Autonomous AI Database nel pool, la fatturazione per l'ora tra le 4 e le 5 del pomeriggio è la seguente:
-
La fattura per 4-5 pm è: (4 * 0,5) + 128 = 130 ECPU.
-
Dove (4 * 0,5) è la fatturazione per la computazione per i trenta minuti dopo che l'istanza di Autonomous AI Database ha terminato il pool elastico e 128 ECPU è la fatturazione per il pool elastico per l'ora in cui il pool elastico è stato terminato.
-
Una volta che l'istanza di Autonomous AI Database lascia il pool, diventa di nuovo parte del cluster VM e viene fatturata a fronte del cluster VM.
-
Fatturazione Elastic Pool quando un membro o un leader del pool lascia il pool
Fatturazione per un'istanza di Autonomous AI Database che lascia un pool elastico torna alla fatturazione delle singole istanze in base alle risorse di computazione utilizzate dalla singola istanza:
-
Se un membro del pool con 2 ECPU o più lascia il pool, l'allocazione ECPU della singola istanza rimane e l'istanza viene fatturata per tale numero di ECPU.
-
Se un membro del pool con 1 ECPU lascia il pool, l'allocazione ECPU viene impostata automaticamente su 2 ECPU e l'istanza viene fatturata per 2 ECPU in futuro a meno che non venga eseguito lo scale-up.