Base de datos de IA autónoma de facturación en infraestructura de Exadata dedicada

Oracle Autonomous AI Database en infraestructura de Exadata dedicada utiliza algoritmos específicos para asignar y facturar el uso de los recursos informáticos utilizados por las bases de datos de IA autónomas. Entender estos algoritmos puede ayudarle a determinar la mejor forma de crear y configurar sus Bases de datos de IA autónomas para cumplir los objetivos a largo plazo de la forma más rentable.

Detalles de facturación de CPU

Oracle Autonomous AI Database on Dedicated Exadata Infrastructure calcula la facturación de CPU de la siguiente forma:

  1. El uso de CPU para cada base de datos de IA autónoma se mide cada segundo en unidades de ECPU o OCPU completas.

    a. Una base de datos de IA autónoma parada no utiliza ninguna ECPU u OCPU. Cuando se para una base de datos de IA autónoma, no se le factura.

    b. Una base de datos de IA autónoma en ejecución utiliza su número asignado de ECPU o OCPU, además de cualquier ECPU o OCPU adicionales debido a la escala automática. Cuando se ejecuta una instancia de Autonomous AI Database, se le factura el número de CPU actualmente asignadas a la base, tanto si se lo ha especificado durante el proceso de creación inicial o posteriormente mediante una operación de escala manual. Además, si la escalabilidad automática está activada para la base datos, se le facturará cada segundo de todas las CPU adicionales de la base que esté utilizando como resultado de la escalada vertical automática.

    Nota: La creación de recursos de AVMC y ACD no inicia la facturación. Por lo tanto, aunque asigne un recuento total de CPU a un AVMC y cada ACD consuma 8 ECPU o 2 OCPU por nodo cuando se cree, estas CPU no se facturarán. Solo una vez que aprovisione bases de datos de IA autónomas en un AVMC y una base de datos de contenedor autónoma subyacente, y que la base de datos se esté ejecutando activamente, se facturarán las CPU utilizadas. Como resultado, puede crear bases de datos de contenedores autónomas en AVMC para organizar y agrupar sus bases de datos según sus líneas de negocio, áreas funcionales o alguna otra técnica sin preocuparse por incurrir en costos.

    c. Cuando crea una base de datos de IA autónoma, Oracle reserva por defecto CPU adicionales para garantizar que la base de datos pueda ejecutarse con al menos un 50 % de capacidad incluso en caso de fallos de algún nodo. Puede cambiar el porcentaje de CPU reservadas en los nodos al 0 % o al 25 % al aprovisionar una ACD. Consulte Reserva de failover de nodo en Creación de una base de datos de contenedores autónoma para obtener instrucciones. Estas CPU adicionales no están incluidas en la facturación.

    Nota: Autonomous AI Database on Dedicated Exadata Infrastructure on Oracle Database@AWS solo soporta el modelo de cálculo de ECPU.

  2. Las mediciones por segundo se calculan en promedio en cada intervalo a la hora para cada base de datos de IA autónoma.

  3. Los promedios por hora de las bases de datos de IA autónomas se agregan para determinar el uso de CPU por hora en todo el recurso de cluster de VM autónomo.

Los costos de computación de la base de datos de base de datos de IA autónoma en infraestructura de Exadata dedicada se agregan e informan a nivel de AVMC, cubriendo todas las bases de datos de IA autónomas activas en todas las bases de datos de bases de datos de contenedores autónomas en AVMC. El análisis de costos de OCI puede proporcionar el uso y el costo de AVMC.

Para calcular el costo por base de datos de IA autónoma, sume el total de ECPU en las bases de datos de IA autónomas y asigne el costo en función de la cuota de consumo total de CPU de cada base de datos de IA autónoma. Por ejemplo:

Si AVMC informa de 1500 ECPU facturadas por un período de facturación y tres bases de datos de IA autónomas están activas; la base de datos A con 10 ECPU, la base de datos B con 20 ECPU y la base de datos C con 30 ECPU. La división de costos es:

Esto supone tamaños de CPU fijos sin escala automática y las 3 bases de datos de IA autónomas se estaban ejecutando durante el período de facturación. Para una mayor precisión, utilice la métrica ECPU asignadas para capturar el uso real de ECPU por base de datos de IA autónoma.

Se recomienda que vea:

Facturación de grupo flexible

Un pool flexible te permite consolidar tus instancias de Autonomous AI Database en términos de facturación de recursos informáticos.

Puede pensar en un pool elástico como un "plan de familia" de servicio de teléfono móvil, excepto que esto se aplica a las instancias de su base de datos de IA autónoma. En lugar de pagar individualmente por cada base de datos, las bases de datos se agrupan en un pool en el que se cobra a una instancia, la líder, por el uso informático asociado a todo el pool. Consulte Consolidación de instancias de base de datos de IA autónoma mediante grupos elásticos para obtener detalles completos sobre los pools de recursos elásticos.

Uso de pool de recursos flexible:

Mediante un pool elástico, puede aprovisionar hasta cuatro veces el número de ECPU en el tamaño del pool seleccionado y puede aprovisionar instancias de base de datos que estén en el pool elástico con tan solo 1 ECPU por instancia de base de datos. Fuera de un pool elástico, el número mínimo de ECPU por instancia de base de datos es de 2 ECPU. Por ejemplo, con un tamaño de pool de 128, puede aprovisionar 512 instancias de Autonomous AI Database (cuando cada instancia tiene 1 ECPU). En este ejemplo, se le facturan los recursos informáticos del tamaño del pool, según el tamaño del pool de 128 ECPU, mientras que tiene acceso a 512 instancias de Autonomous AI Database. Por el contrario, cuando aprovisiona individualmente 512 instancias de base de datos de IA autónoma sin utilizar un pool elástico, debe asignar un mínimo de 2 ECPU para cada instancia de base de datos de IA autónoma. En este ejemplo, pagaría por 1024 ECPU. El uso de un pool elástico proporciona hasta un 87 % de ahorro de costos de recursos informáticos.

Después de crear un pool elástico, el uso total de ECPU para una hora determinada se carga a la instancia de base de datos de IA autónoma, que es la líder del pool. Excepto por el líder del pool, las instancias individuales de Autonomous AI Database que son miembros del pool no se cobran por el uso de ECPU mientras son miembros de un pool elástico.

La facturación flexible de agrupaciones es la siguiente:

Para obtener más información, consulte Cómo lograr un ahorro de costos de hasta el 87 % en recursos informáticos con grupos de recursos elásticos en una base de datos de IA autónoma.

Facturación flexible de grupo cuando se crea o se termina un grupo

Cuando se crea o termina un pool elástico, el líder se factura durante toda la hora para el pool elástico. Además, las instancias individuales que se agregan o eliminan del pool se facturan por cualquier uso de recursos informáticos que se produzca mientras la instancia no esté en el pool elástico (en este caso, la facturación se aplica a la instancia de base de datos de IA autónoma individual).

Facturación flexible de grupo cuando un miembro o líder de grupo abandona el grupo

La facturación de una instancia de base de datos de IA autónoma que deja un pool flexible vuelve a la facturación de instancias individuales en función de los recursos informáticos que utilice la instancia individual:

Contenido relacionado