Gestión de recursos informáticos en base de datos de IA autónoma en infraestructura de Exadata dedicada

La base de datos de IA autónoma en una infraestructura de Exadata dedicada ofrece dos modelos informáticos mientras configura sus recursos de base de datos de IA autónoma. Son las siguientes:

El tipo de cálculo del cluster de VM de Exadata autónomo se aplica a todas sus bases de datos de contenedores autónomas e instancias de base de datos de IA autónoma.

Gestión de instancias informáticas

Las instancias de base de datos de IA autónoma se despliegan en un cluster de VM de Exadata autónomo (AVMC) y en una de sus bases de datos de contenedores autónomas (ACD) secundarias. Las infraestructuras de Exadata pueden ejecutar varios AVMC. Las CPU que asigne al aprovisionar un recurso de AVMC serán las CPU totales disponibles para sus bases de datos de IA autónomas. Al crear varios AVMC, cada AVMC puede tener su propio valor para el total de CPU.

Varios clusters de VM de Exadata autónomos de VM no están disponibles en ningún despliegue de recursos de infraestructura de Exadata (EI) de Oracle Public Cloud creado antes del inicio de la función de base de datos de IA autónoma de varias VM. Para la generación de X8M y los recursos de infraestructura de Exadata superiores creados después del inicio de la función Varios AVMC, cada AVMC se crea con un nodo de cluster para cada uno de los servidores de la unidad del sistema de Exadata que elija. Para obtener información sobre la restricción de estas CPU totales en diferentes grupos de usuarios, consulte Cómo afectan las cuotas de compartimentos a la gestión de CPU.

Nota: El número máximo de recursos de AVMC y ACD que puede crear en una infraestructura de Exadata determinada varía en función de la generación de hardware. Consulte los límites de recursos y las características de las unidades de infraestructura para obtener más información sobre las restricciones de cada generación.

En un nivel de AVMC o de ACD, el número total de CPU disponibles para crear bases de Datos se denomina CPU disponibles. En el nivel del recurso de AVMC, las CPU disponibles serán iguales al total de CPU hasta que cree la primera ACD. Una vez creada una base de datos de contenedor automática, de 8 ECPU o 2 OCPU por nodo se asignan a la nueva ACD a partir de las CPU disponibles del AVMC. Por lo tanto, las CPU disponibles en el nivel del recurso de AVMC disminuyen de la forma correspondiente. Al crear la primera instancia de Autonomous AI Database en ese ACD, la nueva base datos consume las OCPU asignadas inicialmente (8 ECPU o 2 OCPU por nodo). Si la nueva base de datos necesita más de 8 ECPU o 2 OCPU, se asignan desde las CPU disponibles del AVMC principal, reduciendo las CPU disponibles en el nivel de AVMC principal. A medida que crea más ACD y aprovisiona bases de datos de IA autónomas en cada ACD, el valor de CPU disponible cambia en consecuencia.

Las CPU disponibles en el nivel del cluster Exadata de VM autónomo se aplican a todas sus bases de datos de contenedores autónomas. Este recuento de CPU disponibles para la base de datos del contenedor cobra importancia si utiliza la función de escalado automático, como se describe en Asignación de CPU durante la escalada automática.

Del mismo modo, al escalar manualmente las CPU de una base de datos de IA autónoma, las CPU se consumen de las CPU disponibles en su nivel de AVMC principal y su valor cambia según corresponda.

Cuando crea una base de datos de IA autónoma, Oracle reserva por defecto CPU adicionales para garantizar que la base de datos pueda ejecutarse con al menos un 50 % de capacidad incluso en caso de fallos de algún nodo. Puede cambiar el porcentaje de CPU reservadas en los nodos al 0 % o al 25 % al aprovisionar una ACD. Consulte Reserva de failover de nodo en Creación de una base de datos de contenedores autónoma para obtener instrucciones. Estas CPU adicionales no están incluidas en la facturación.

Cuando se ejecuta una instancia de Autonomous AI Database, se le factura el número de CPU actualmente asignadas a la base, tanto si se lo ha especificado en la creación inicial o posteriormente mediante una operación de escala manual. Además, si la escalabilidad automática está activada para la base, se le facturará cada segundo de todas las CPU adicionales de la base que esté utilizando como resultado del escalado vertical automático. Para obtener más información sobre cómo se mide y calcula la facturación, consulte Detalles de facturación de CPU.

Cuando se para una base de datos de IA autónoma, no se le factura. Sin embargo, el número de CPU que tiene asignadas no se devuelve a las CPU disponibles en su nivel de AVMC principal para el despliegue general.

Cuando se termina o se reduce verticalmente una base de datos de IA autónoma, el número de CPU que tiene asignadas no se devuelve inmediatamente a las CPU disponibles en el nivel de su AVMC principal para el despliegue general. Se siguen incluyendo en el recuento de CPU disponibles para su base de datos del contenedor principal hasta que se reinicie dicha base de datos del contenedor principal. Estas CPU se denominan CPU reclamables. Las CPU reclamables en el nivel de AVMC principal son la suma de las CPU reclamables de todas sus bases de datos de contenedor autónomas. Cuando se reinicia una ACD, esta devuelve todas sus CPU reclamables a las CPU disponibles en su nivel del AVMC principal.

El reinicio de una base de datos de contenedores autónoma (ACD) es una operación en línea, realizada de forma sucesiva en el cluster, y no generará tiempo de inactividad de la aplicación si se configura de acuerdo con las mejores prácticas para utilizar la continuidad de aplicaciones transparente.

Consejo: puede realizar un seguimiento de los diferentes atributos informáticos (CPU) que se tratan en este artículo desde la página Detalles de un cluster de VM de Exadata autónomo (AVMC) o una base de datos de contenedores autónoma (ACD). Para obtener orientación, consulte Seguimiento del uso de recursos.

Asignación de CPU durante la escala automática

La función de escala automática permite a la base de datos de IA autónoma utilizar hasta tres veces más recursos que el recuento de CPU y E/S que tiene asignado. En caso de sobreaprovisionamiento de CPU, si el recuento de CPU resulta en un valor inferior a 1 tres veces, se redondeará al siguiente número entero. El sobreaprovisionamiento de CPU solo está soportado con OCPU. Consulte Sobreaprovisionamiento de CPU para obtener más información.

Para garantizar que ninguna base de datos de IA autónoma pueda escalarse automáticamente para consumir todas las CPU disponibles en el pool para el despliegue general, Oracle Autonomous AI Database on Dedicated Exadata Infrastructure utiliza la base de datos de contenedores autónoma como control limitante.

Al aprovisionar una base de datos de IA autónoma activada para escala automática en una base de datos de contenedor autónoma, si las CPU disponibles en esa base de datos de contenedor autónoma tienen menos de 3 veces el valor de CPU de la nueva base de datos, se reservarán CPU adicionales en esa base de datos de contenedor autónoma. Estas CPU se denominan CPU reservadas. Las CPU reservadas garantizan que las CPU disponibles en un nivel de ACD siempre sean mayores o iguales que 3 veces el valor de CPU de la base de datos con mayor capacidad de escala automática activada en esa ACD. Estas CPU reservadas aún se pueden utilizar para crear o escalar manualmente bases de datos de IA autónomas en esta ACD.

Al escalar automáticamente una base de datos de IA autónoma, Oracle Autonomous AI Database en infraestructura de Exadata dedicada busca CPU inactivas en su base de datos de contenedores principal. Si hay CPU inactivas disponibles, la base de datos de IA autónoma se escalará verticalmente; en caso contrario, no se escalará. Las bases de datos tienen de forma inherente mucho tiempo de inactividad, por lo que la escala automática es una forma de maximizar el uso de los recursos al tiempo que se controlan los costos y se mantiene un buen aislamiento de las bases de datos de otras bases de datos de contenedores autónomas.

Si la CPU utilizada para escalar automáticamente una base de datos de IA autónoma proviene de otra base de datos de IA autónoma en ejecución que está ligeramente cargada y, por lo tanto, no está utilizando todas sus CPU asignadas, Oracle Autonomous AI Database on Dedicated Exadata Infrastructure escala automáticamente la base de datos de escala automática hacia abajo si la carga aumenta en la otra base de datos y necesita su CPU asignada nuevamente.

Considere el ejemplo de una base de datos de contenedores autónoma en la que se alojan cuatro instancias de bases de datos de IA autónomas de 4 CPU en ejecución, todas con la escala automática activada. El recuento de CPU disponibles para la base de datos del contenedor con fines de escala automática es 12. Si una de estas bases se debe escalar automáticamente después de las 4 CPU debido al aumento de carga, Oracle Autonomous AI Database en una infraestructura de Exadata dedicada solo realizará la operación de escalado automático si una o más de las otras bases se cargan ligeramente y no utilizan todas las CPU asignadas. El costo de facturación de este ejemplo son de 16 CPU como mínimo porque las cuatro bases de Datos de 4 CPU siempre están en ejecución.

Por el contrario, considere el ejemplo de una base de datos de contenedores autónoma que aloja cuatro bases de datos de IA autónomas de 2 CPU, todas ellas con escala automática activada y una base de datos de IA autónoma de 8 CPU detenida. El recuento de CPU disponibles para la base del contenedor con fines de escala automática es nuevamente de 16. En caso de que una de las bases de datos en ejecución se deba escalar automáticamente debido a un aumento de carga de más de 2 CPU, Oracle Autonomous AI Database on Dedicated Exadata Infrastructure puede realizar la operación mediante CPU asignadas a la base de datos de 8 CPU parada. En este ejemplo, las cuatro base de datos en ejecución pueden consumir hasta un total de 8 CPU adicionales a la vez sin consumir las CPU asignadas a la otra. El costo de facturación de este ejemplo es solo de 8 CPU como mínimo porque solo las cuatro bases de Datos de 2 CPU están siempre en ejecución.

Para cualquier instancia de servicio de Autonomous Data Guard, local o entre regiones, los precios adicionales serán el número de ECPU u OCPU que haya reservado al crear o escalar explícitamente la instancia de servicio principal, independientemente de si la escala automática está activada o no. El consumo de ECPU u OCPU relacionado con la escala automática en las instancias de servicio principales no se produce en las instancias de servicio de Autonomous Data Guard en espera.

Cómo afectan las cuotas de compartimentos a la gestión de CPU

Normalmente, cuando crea o escala una base de datos de IA autónoma, la capacidad de Oracle Autonomous AI Database on Dedicated Exadata Infrastructure para satisfacer su solicitud depende solo de la disponibilidad de CPU no asignadas en el único pool de CPU en todo el despliegue.

Sin embargo, puede utilizar la función de cuotas del compartimento de Oracle Cloud Infrastructure para restringir aún más, en compartimentos, el número de CPU disponibles para crear, ampliar y escalar automáticamente bases de datos de IA autónomas de cada tipo de carga de Trabajo (Autonomous AI Lakehouse o Autonomous AI Transaction Processing) de forma individual.

En resumen, puede utilizar la función de cuotas de compartimento mediante la creación de sentencias de política set, unset y zero para limitar la disponibilidad de un recurso determinado en un compartimento determinado. Para obtener más información e instrucciones, consulte Cuotas de compartimento.

Cómo afectan los nodos de cluster de VM a la gestión de CPU

En el análisis anterior sobre la gestión y asignación de CPU se indica que puede crear varios recursos de cluster de VM de Exadata autónomo (AVMC) seleccionando el recuento de CPU por nodo al aprovisionar el recurso de AVMC.

En esta sección se analizará de forma pormenorizada cómo Oracle Cloud Infrastructure coloca las bases de datos de IA autónomas en los nodos del cluster de VM y las consecuencias de dicha colocación en la escalabilidad automática y en el procesamiento paralelo.

Los siguientes atributos determinan cuándo y cómo se coloca una base de datos de IA autónoma en varios nodos:

La distribución de la asignación de CPU de una base de datos de IA autónoma entre los nodos del clúster de VM afecta a las siguientes operaciones:

Según el uso de recursos en cada nodo; no todos los valores de las CPU disponibles se pueden utilizar para aprovisionar o escalar bases de datos de IA autónomas. Por ejemplo, supongamos que tiene 20 CPU disponibles en el nivel de AVMC, no todos los valores de 1 a 20 CPU se pueden utilizar para aprovisionar o escalar bases de datos de IA autónomas según la disponibilidad de recursos en el nivel de nodo. La lista de valores de CPU que se pueden utilizar para aprovisionar o escalar una base de datos de IA autónoma se denomina CPU que permiten aprovisionar.

Al intentar aprovisionar o escalar una base de datos de IA autónoma desde la consola de OCI, el campo CPU le proporcionará una lista desplegable con la lista de CPU aprovisionables. También puede utilizar las siguientes API para obtener la lista de valores de CPU provisionales:

Contenido relacionado