OpenAI gpt-oss-20b (New)

OCI Generative AI prend en charge l'accès au modèle OpenAI gpt-oss-20b préentraîné.

Le openai.gpt-oss-20b est un modèle de langage textuel ouvert conçu pour un raisonnement puissant et des tâches agéntiques.

Disponible dans ces régions

  • Allemagne - Centre (Francfort)
  • Japon - Centre (Osaka)
  • États-Unis - Midwest (Chicago)

Principales fonctions

  • Nom du modèle dans le service d'intelligence artificielle générative pour OCI : openai.gpt-oss-20b
  • Taille du modèle : 21 milliards de paramètres
  • Mode texte seulement : Entrez du texte et obtenez une sortie de texte. Les images et les entrées de fichier telles que les fichiers audio, vidéo et document ne sont pas prises en charge.
  • Savoir : Spécialisé dans le raisonnement avancé et les tâches textuelles dans un large éventail de sujets.
  • Longueur de contexte : 128 000 jetons (invite maximale + longueur de réponse est de 128 000 jetons pour chaque exécution). Dans le terrain de jeu, la longueur de réponse est plafonnée à 16 000 jetons pour chaque course.
  • Excelle dans ces cas d'utilisation : En raison de ses données d'entraînement, ce modèle est particulièrement solide en STEM (science, technologie, ingénierie et mathématiques), en codage et en connaissances générales. À utiliser pour les cas d'utilisation sur appareil à faible latence, les inférences locales ou les itérations rapides qui ne nécessitent pas de mémoire volumineuse.
  • Appel de fonction : Oui, au moyen de l'API.
  • A un motif : Oui.
  • Arrêt des connaissances : Juin 2024

Pour des détails sur les fonctions clés, consultez la documentation sur OpenAI gpt-oss.

Mode sur demande

Note

Le modèle OpenAI gpt-oss-20b est disponible uniquement en mode sur demande.
Nom de modèle Nom du modèle OCI Nom du produit de la page de tarification
OpenAI gpt-oss-20b openai.gpt-oss-20b OpenAI - gpt-oss-20b

Prix pour :

  • Jetons d'entrée
  • Jetons de sortie
Vous pouvez accéder aux modèles fondamentaux préentraînés dans l'IA générative au moyen de deux modes : sur demande et dédié. Voici les principales fonctions du mode sur demande :
  • Vous payez à l'utilisation pour chaque appel d'inférence lorsque vous utilisez les modèles dans le terrain de jeu ou lorsque vous appelez les modèles au moyen de l'API.

  • Faible barrière pour commencer à utiliser l'IA générative.
  • Idéal pour l'expérimentation, la preuve de concept et l'évaluation de modèle.
  • Disponible pour les modèles préentraînés dans les régions non listées (grappe dédiée à l'IA uniquement).
Important

Ajustement de limite de limitation dynamique pour le mode sur demande

OCI Generative AI ajuste dynamiquement la limite de limitation de demande pour chaque location active en fonction de la demande du modèle et de la capacité du système afin d'optimiser l'affectation des ressources et d'assurer un accès équitable.

Cet ajustement dépend des facteurs suivants :

  • Débit maximal courant pris en charge par le modèle cible.
  • Toute capacité système inutilisée au moment de l'ajustement.
  • L'historique d'utilisation du débit de chaque location et les limites de remplacement spécifiées sont définies pour cette location.

Remarque : En raison de la limitation dynamique, les limites de débit ne sont pas documentées et peuvent changer pour répondre à la demande à l'échelle du système.

Conseil

En raison de l'ajustement dynamique de la limite de limitation, nous recommandons de mettre en œuvre une stratégie de back-off, qui implique de retarder les demandes après un rejet. Sans cela, des demandes rapides répétées peuvent entraîner d'autres rejets au fil du temps, une latence accrue et un blocage temporaire potentiel du client par le service d'IA générative. En utilisant une stratégie d'attente, telle qu'une stratégie d'attente exponentielle, vous pouvez répartir les demandes plus uniformément, réduire la charge et améliorer le succès des tentatives, en suivant les meilleures pratiques du secteur et en améliorant la stabilité et la performance globales de votre intégration au service.

Grappe d'IA dédiée pour le modèle

Dans la liste de régions précédente, les régions qui ne sont pas marquées avec (grappe dédiée à l'IA uniquement) ont des options de grappe dédiée à l'IA à la demande et . Pour l'option sur demande, vous n'avez pas besoin de grappes et vous pouvez accéder au modèle dans le terrain de jeu de la console ou au moyen de l'API. En savoir plus sur le mode dédié.

Pour atteindre un modèle au moyen d'une grappe dédiée à l'IA dans n'importe quelle région répertoriée, vous devez créer un point d'extrémité pour ce modèle sur une grappe dédiée à l'IA. Pour connaître la taille d'unité de grappe correspondant à ce modèle, voir le tableau suivant.

Modèle de base Cluster de réglage fin Grappe d'hébergement Informations sur la page de tarification Demander une augmentation de limite de grappe
  • Nom du modèle : OpenAI gpt-oss-20b
  • Nom du modèle OCI : openai.gpt-oss-20b
Non disponible pour le réglage fin
  • Taille de l'unité : OAI_H100_X1
  • Unités requises : 1
  • Nom du produit de la page Tarification : OpenAI - Dedicated
  • Pour l'hébergement, Multiplier le prix unitaire : x1
  • Nom de la limite : dedicated-unit-h100-count
  • Pour l'hébergement, demandez une augmentation de limite de : 1
Conseil

Si vous n'avez pas suffisamment de limites de grappe dans votre location pour héberger le modèle OpenAI gpt-oss-20b sur une grappe dédiée à l'IA, demandez que la limite dedicated-unit-h100-count augmente de 1.

Tests de performance des grappes

Consultez les points de référence de performance de grappe OpenAI gpt-oss-20b (New) pour différents cas d'utilisation.

Dates de lancement et de mise hors service

Modèle Date de version Date de mise hors service sur demande Date de mise hors service en mode dédié
openai.gpt-oss-20b 2025-11-17 Au moins un mois après le lancement du 1er modèle de remplacement. Au moins 6 mois après la publication du 1er modèle de remplacement.
Important

Pour obtenir la liste de toutes les lignes de temps du modèle et les détails de mise hors service, voir Mise hors service des modèles.

Paramètres du modèle

Pour modifier les réponses du modèle, vous pouvez modifier les valeurs des paramètres suivants dans le terrain de jeu ou l'API.

Nombre maximal de jetons de sortie

Nombre maximal de marqueurs que le modèle doit générer pour chaque réponse. Estimer quatre caractères par jeton. Comme vous demandez un modèle de clavardage, la réponse dépend de l'invite et chaque réponse n'utilise pas nécessairement le nombre maximal de jetons alloués. La longueur maximale de l'invite et de la sortie est de 128 000 jetons pour chaque exécution. Dans le terrain de jeu, les jetons de sortie maximum sont plafonnés à 16 000 jetons pour chaque course.

Conseil

Pour les entrées volumineuses présentant des problèmes difficiles, définissez une valeur élevée pour le paramètre de nombre maximal de jetons de sortie.
Température

Niveau de caractère aléatoire utilisé pour générer le texte de sortie. Min : 0, Max : 2, Par défaut : 1

Conseil

Commencez avec la température réglée à 0 ou moins d'un, puis augmentez la température au fur et à mesure que vous régénérez les invites pour une sortie plus créative. Les températures élevées peuvent introduire des hallucinations et des informations factuellement incorrectes.
Haut p

Méthode d'échantillonnage qui contrôle la probabilité cumulative des jetons supérieurs à prendre en compte pour le jeton suivant. Affectez à p un nombre décimal compris entre 0 et 1 pour la probabilité. Par exemple, entrez 0,75 pour les 75 % principaux à prendre en compte. Réglez p à 1 pour prendre en compte tous les jetons. Valeur par défaut : 1

Pénalité de fréquence

Pénalité affectée à un jeton lorsque ce jeton apparaît fréquemment. Les pénalités élevées encouragent moins de jetons répétés et produisent un résultat plus aléatoire. Réglez à 0 pour désactiver. Par défaut : 0

Pénalité de présence

Pénalité affectée à chaque jeton lorsqu'il apparaît dans la sortie pour encourager la génération de sorties avec des jetons qui n'ont pas été utilisés. Réglez à 0 pour désactiver. Par défaut : 0