Paiement de l'inférence à la demande
Vous bénéficiez des avantages suivants en vous engageant à l'inférence à la demande dans OCI Generative AI :
- Faible barrière pour commencer à utiliser l'IA générative.
- Accès à tous les modèles fondamentaux d'IA générative disponibles.
- Idéal pour expérimenter et évaluer les modèles.
- Pay as you go pour les transactions. Pour plus d'informations, reportez-vous à la remarque suivante.
Avec la déduction à la demande, vous payez au fur et à mesure pour les longueurs de caractères suivantes :
- Discussion : longueur d'invite (en caractères) + longueur de réponse (en caractères)
- Intégrations de texte : longueur d'entrée (en caractères)
Sur la page Tarification, 1 character
est calculé comme suit : 1 transaction
.
Si vous hébergez des modèles de base ou que vous les affinez sur des clusters d'IA dédiés, vous êtes facturé par heure d'unité plutôt que par transaction. Dans ce cas, reportez-vous à Paiement de clusters d'IA dédiés pour savoir comment calculer les coûts de cluster d'IA dédiés.
Mise en correspondance des modèles avec les prix à la demande
Consultez les tableaux suivants pour faire correspondre un modèle fondamental à son nom de produit sur la page de tarification. La page de tarification indique le prix de 10 000 transactions à la demande lors de l'utilisation de la piste de lecture, de l'API ou de l'interface de ligne de commande pour l'inférence.
Modèles de discussion
Nom de modèle | Nom du modèle OCI | Nom de produit de la page de tarification |
---|---|---|
Cohere Command A | cohere.command-a-03-2025 |
Large Cohere |
Cohere Command R 08-2024 | cohere.command-r-08-2024 |
Small Cohere |
Cohere Command R+ 08-2024 | cohere.command-r-plus-08-2024 |
Large Cohere |
Cohere Command R | cohere.command-r-16k (en phase d'abandon) |
Small Cohere |
Cohere Command R+ | cohere.command-r-plus (en phase d'abandon) |
Large Cohere |
Meta Llama 4 Maverick | meta.llama-4-maverick-17b-128e-instruct-fp8 |
Meta Llama 4 Maverick |
Meta Llama 4 Scout | meta.llama-4-scout-17b-16e-instruct |
Meta Llama 4 Scout |
Meta Llama 3.3 | meta.llama-3.3-70b-instruct |
Large Meta |
Meta Llama 3.2 11B Vision | meta.llama-3.2-11b-vision-instruct |
Large Meta |
Meta Llama 3.2 90B Vision | meta.llama-3.2-90b-vision-instruct |
Large Meta |
Meta Llama 3.1 (70B) | meta.llama-3.1-70b-instruct |
Large Meta |
Meta Llama 3.1 (405B) | meta.llama-3.1-405b-instruct |
Meta Llama 3.1 405B |
Meta Llama 3 | meta.llama-3-70b-instruct (obsolète) |
Large Meta |
Les modèles de synthèse et de génération de texte pris en charge pour le mode à la demande sont désormais supprimés. Nous vous recommandons plutôt d'utiliser les modèles de chat.
Incorporer des modèles
Nom de modèle | Nom du modèle OCI | Nom de produit de la page de tarification |
---|---|---|
Cohere Embed English Image V3 | cohere.embed-english-image-v3.0 |
Embed Cohere |
Cohere Embed Multilingual Image V3 | cohere.embed-multilingual-image-v3.0 |
Embed Cohere |
Cohere Embed English Light Image V3 | cohere.embed-english-light-image-v3.0 |
Embed Cohere |
Cohere Embed Multilingual Light Image V3 | cohere.embed-multilingual-light-image-v3.0 |
Embed Cohere |
Cohere Embed English V3 | cohere.embed-english-v3.0 |
Embed Cohere |
Cohere Embed Multilingual V3 | cohere.embed-multilingual-v3.0 |
Embed Cohere |
Cohere Embed English Light V3 | cohere.embed-english-light-v3.0 |
Embed Cohere |
Cohere Embed Multilingual Light V3 | cohere.embed-multilingual-light-v3.0 |
Embed Cohere |
Exemple de discussion
Paul appelle le modèle meta.llama-3.3-70b-instruct
avec l'invite suivante, qui est longue de 220 characters
:
Générez une hauteur de produit pour un microphone compact connecté par USB qui peut enregistrer le son surround. Le microphone est le plus utile pour enregistrer de la musique ou des conversations. Le microphone peut également être utile pour enregistrer des podcasts.
La réponse du modèle est longue de 2,205 characters
. Paul veut connaître le coût de cet appel. Voici les étapes pour calculer le coût.
Outre le calcul du prix, vous pouvez estimer le coût en sélectionnant la catégorie IA et apprentissage automatique et en chargeant l'estimateur de coût pour OCI Generative AI.
Exemple d'inclusion de texte
Gina convertit les contrats clients en intégrations pour une nouvelle application de recherche sémantique. En moyenne, Gina ingère 16 documents toutes les heures. Chaque document est d'environ 1,000 characters
long. Gina veut obtenir une estimation de la facture mensuelle pour la génération de ces incorporations. Voici les étapes à suivre pour calculer le coût.