Facturation d'une base de données d'IA autonome sur une infrastructure Exadata dédiée

Oracle Autonomous AI Database sur une infrastructure Exadata dédiée utilise des algorithmes spécifiques pour allouer et facturer l'utilisation du calcul utilisé par les bases de données Autonomous AI. La compréhension des algorithmes peut vous aider à déterminer la meilleure façon de créer et à configurer vos bases de données d'IA autonomes pour atteindre vos objectifs de performances de la manière la plus rentable possible.

Détails de facturation de l'UC

Oracle Autonomous AI Database sur une infrastructure Exadata dédiée calcule la facturation de l'UC comme suit :

  1. L'utilisation de l'UC pour chaque base de données Autonomous AI est mesurée chaque seconde en unités d'ECPU ou d'OCPU entières.

    a. Une base de données Autonomous AI arrêtée utilise zéro ECPU ou OCPU. Lorsqu'une base de données Autonomous AI est arrêtée, vous n'êtes pas facturé.

    b. Une base de données Autonomous AI en cours d'exécution utilise le nombre d'ECPU ou d'OCPU qui lui est alloué, plus toutes les ECPU ou OCPU supplémentaires en raison du redimensionnement automatique. Lorsqu'une base de données Autonomous AI est en cours d'exécution, vous êtes facturé en fonction du nombre d'UC actuellement allouées à la base de données, qu'elles soient indiquées lors de sa création ou ultérieurement par une opération de redimensionnement manuel. De plus, si la mise à l'échelle automatique est activée pour la base de données, toutes les UC supplémentaires que la base de données utilise suiteà une augmentation automatique vous sont facturées la seconde.

    Remarque : La création de ressources AVMC et ACD ne lance pas la facturation. Par conséquent, même si vous affectez un nombre total d'UC à une instance AVMC et que chaque base de données Conteneur Autonomous consomme 8 ECPU ou 2 OCPU par noeud lors de la création, ces CPU ne sont pas facturées. Une fois que vous avez provisionné des bases de données Autonomous AI dans une base de données AVMC et une base de données Conteneur Autonomous sous-jacente et que cette base de données est en cours d'exécution, les UC utilisées ne sont pas facturées. Par conséquent, vous pouvez créer des bases de données Conteneur Autonomous au niveau des clusters de machines virtuelles AVMC pour organiser et regrouper vos bases de données indépendantes en fonction des secteurs d'activité, de votre domaine fonctionnel ou d'autres techniques sans vous soucier de coûts.

    c. Lorsque vous créez une base de données Autonomous AI, Oracle réserve par défaut des CPU supplémentaires pour s'assurer que la base de données peut s'exécuter avec au moins 50 % de capacité, même en cas de panne de noeud. Vous pouvez modifier le pourcentage d'UC réservées sur les noeuds à 0 % ou 25 % lors du provisionnement d'une base de données Conteneur Autonomous. Pour obtenir des instructions, reportez-vous à Réservation de basculement de noeud dans Création d'une base de données Conteneur Autonomous. Ces CPU supplémentaires ne sont pas incluses dans la facturation.

    Remarque : la base de données Autonomous AI sur une infrastructure Exadata dédiée sur Oracle Database@AWS prend uniquement en charge le modèle de calcul ECPU.

  2. La moyenne des mesures par seconde sont calculées sur chaque intervalle horaire pour chaque base de données Autonomous AI.

  3. Les moyennes par heure des bases de données Autonomous AI sont additionnées pour déterminer l'utilisation de l'UC par heure sur l'ensemble de la ressource de cluster de machines virtuelles Autonomous.

Les coûts de calcul de la base de données Autonomous AI Database on Dedicated Exadata Infrastructure sont agrégés et déclarés au niveau AVMC, couvrant toutes les bases de données d'IA autonomes actives sur toutes les bases de données Conteneur Autonomous dans AVMC. OCI Cost Analysis peut fournir l'utilisation et le coût d'AVMC.

Pour estimer le coût par base de données d'IA autonome, additionnez le total des ECPU dans les bases de données d'IA autonome et allouez le coût en fonction de la part de chaque base de données d'IA autonome dans la consommation totale d'UC. Exemple :

Si AVMC signale 1500 ECPU facturées pour une période de facturation et que trois bases de données Autonomous AI sont actives, la base de données A avec 10 ECPU, la base de données B avec 20 ECPU et la base de données C avec 30 ECPU. Le fractionnement des coûts est :

Cela suppose des tailles d'UC fixes sans redimensionnement automatique, et les 3 bases de données Autonomous AI étaient en cours d'exécution pendant la période de facturation. Pour plus de précision, utilisez la mesure ECPU allouées pour capturer l'utilisation réelle d'ECPU par base de données d'IA autonome.

Il est recommandé d'afficher les éléments suivants :

Facturation de pool élastique

Un pool élastique vous permet de consolider vos instances de base de données Autonomous AI en termes de facturation des ressources de calcul.

Vous pouvez penser à un pool élastique comme un "plan de famille" de service de téléphone mobile, sauf que cela s'applique à vos instances de base de données Autonomous AI. Au lieu de payer individuellement pour chaque base de données, les bases de données sont regroupées dans un pool dans lequel une instance, le leader, est facturée pour l'utilisation de calcul associée à l'ensemble du pool. Pour plus d'informations sur les pools de ressources élastiques, reportez-vous à Consolidation d'instances de base de données Autonomous AI à l'aide de pools élastiques.

Utilisation d'un pool de ressources élastique :

A l'aide d'un pool élastique, vous pouvez provisionner jusqu'à quatre fois le nombre d'ECPU sur la taille de pool sélectionnée, et vous pouvez provisionner les instances de base de données qui se trouvent dans le pool élastique avec aussi peu que 1 ECPU par instance de base de données. En dehors d'un pool élastique, le nombre minimal d'ECPU par instance de base de données est de 2 ECPU. Par exemple, avec une taille de pool de 128, vous pouvez provisionner 512 instances de base de données Autonomous AI (lorsque chaque instance a 1 ECPU). Dans cet exemple, vous êtes facturé pour les ressources de calcul de taille de pool, en fonction de la taille de pool de 128 ECPU, alors que vous avez accès à 512 instances de base de données Autonomous AI. En revanche, lorsque vous provisionnez individuellement 512 instances de base de données Autonomous AI sans utiliser de pool élastique, vous devez allouer au moins 2 ECPU pour chaque instance de base de données Autonomous AI. Dans cet exemple, vous payez 1024 ECPU. L'utilisation d'un pool élastique permet d'économiser jusqu'à 87 % sur les coûts de calcul.

Après la création d'un pool élastique, l'utilisation totale d'ECPU pour une heure donnée est facturée à l'instance de base de données Autonomous AI, qui est le leader du pool. A l'exception du chef de pool, les instances de base de données Autonomous AI individuelles qui sont membres d'un pool ne sont pas facturées pour l'utilisation d'ECPU tant qu'elles sont membres d'un pool élastique.

La facturation élastique du pool se présente comme suit :

Pour plus de détails, reportez-vous à Comment réaliser jusqu'à 87 % d'économies sur les coûts de calcul avec des pools de ressources élastiques sur une base de données d'IA autonome.

Facturation de pool élastique lorsqu'un pool est créé ou résilié

Lorsqu'un pool élastique est créé ou terminé, l'amorce est facturée pour toute l'heure du pool élastique. En outre, les instances individuelles qui sont ajoutées ou enlevées du pool sont facturées pour toute utilisation de calcul qui se produit alors que l'instance ne se trouve pas dans le pool élastique (dans ce cas, la facturation s'applique à l'instance de base de données Autonomous AI individuelle).

Facturation de pool élastique lorsqu'un membre ou un responsable du pool quitte le pool

La facturation d'une instance de base de données Autonomous AI qui laisse un pool élastique revient à la facturation d'une instance individuelle en fonction des ressources de calcul utilisées par l'instance individuelle :

Contenu connexe