A propos des modèles de génération dans l'IA générative

Invitez les modèles de génération OCI Generative AI à générer du texte.

Important

La fonctionnalité de génération de texte sera enlevée de la zone de jeu, de l'API et de l'interface de ligne de commande OCI OCI lorsque les modèles cohere.command v15.6 et cohere.command-light v15.6 seront retirés. Au lieu de cela, vous pouvez utiliser les modèles de discussion. Pour les dates de sortie, voir Céder les modèles.

Vous pouvez poser des questions en langage naturel et éventuellement soumettre des textes tels que des documents, des e-mails et des critiques de produits aux modèles de génération et à chaque motif de modèle sur le texte et fournir des réponses intelligentes.

Style d'invite : Ecrire un courriel à Susan pour la remercier de...

Style de sortie pour l'invite précédente : Chère Susan, merci pour...

Conseil

Contrairement aux modèles de discussion, les modèles de génération de texte ne conservent pas le contexte des invites précédentes. Pour les questions de suivi dans les modèles de génération, vous pouvez inclure les réponses précédentes dans l'invite suivante.

Voici quelques exemples de cas d'utilisation pour les modèles de génération de texte :

  • Génération de la copie : ébauchez une copie marketing, des e-mails, des articles de blog, des descriptions de produit, des documents, etc.
  • Posez des questions : demandez aux modèles d'expliquer des concepts, de réfléchir à des idées, de résoudre des problèmes et de répondre à des questions sur les informations sur lesquelles les modèles ont été entraînés.
  • Conversion de style : modifiez le texte ou réécrivez le contenu dans un style ou une langue différents.

Sélectionner un modèle de génération

Sélectionnez un modèle pour générer du texte en fonction de la taille du modèle, de l'objectif du projet, du coût et de la réponse du modèle. Utilisez les exemples fournis par le terrain de jeu avec chaque modèle répertorié pour avoir une idée de la façon dont chaque modèle répond à la même invite, puis décidez quel style de réponse du modèle convient bien à votre cas d'utilisation.

cohere.command

Un modèle de génération très performant avec 50 milliards de paramètres et une grande connaissance générale du monde. Utilisez ce modèle, du brainstorming à l'optimisation pour l'exactitude, comme l'extraction de texte et l'analyse des sentiments, et pour des instructions complexes pour rédiger vos copies marketing, vos e-mails, vos articles de blog et vos descriptions de produits, puis passez en revue et utilisez-les.

cohere.command-light

Modèle de génération rapide et léger. Utilisez ce modèle pour les tâches qui nécessitent une connaissance de base du monde et des instructions simples, lorsque la vitesse et le coût sont importants. Pour obtenir de meilleurs résultats, vous devez donner au modèle des instructions claires. Plus votre invite est spécifique, plus ce modèle est performant. Par exemple, au lieu de l'invite "Quel est le ton suivant ?", écrivez " Quel est le ton de cet avis produit ? Répondre par le mot Positif ou Négatif".

meta.llama-2-70b-chat

Ce modèle de 70 milliards de paramètres a été entraîné sur un ensemble de données de 1,2 billion de jetons, qui comprend des textes provenant d'Internet, des livres et d'autres sources. Utilisez ce modèle pour la génération de texte, la traduction linguistique, le résumé, la réponse aux questions en fonction du contenu d'un texte ou d'un sujet donné, et la génération de contenu tels que des articles, des articles de blog et des mises à jour sur les réseaux sociaux.

Conseil

Paramètres de modèle de génération

Lors de l'utilisation des modèles de génération, vous pouvez faire varier la sortie en modifiant les paramètres suivants.

Nombre maximal de sèmes de sortie

Nombre maximal de sèmes que le modèle doit générer pour chaque réponse. Estimez quatre caractères par jeton.

Température

Niveau de randomité utilisé pour générer le texte de sortie.

Conseil

Commencez avec la température définie sur 0 ou inférieure à un, et augmentez-la à mesure que vous régénérez les invites pour obtenir une sortie plus créative. Les températures élevées peuvent introduire des hallucinations et des informations factuellement incorrectes.
Top k

Méthode d'échantillonnage dans laquelle le modèle choisit le jeton suivant de manière aléatoire parmi les jetons les plus probables top k. Une valeur supérieure pour k génère une sortie plus aléatoire, ce qui rend le texte de sortie plus naturel. La valeur par défaut de k est 0 pour les modèles command et -1 pour les modèles Llama, ce qui signifie que les modèles doivent prendre en compte tous les jetons et ne pas utiliser cette méthode.

Top p

Méthode d'échantillonnage qui contrôle la probabilité cumulée des principaux jetons à prendre en compte pour le jeton suivant. Affectez à p un nombre décimal compris entre 0 et 1 pour la probabilité. Par exemple, saisissez 0,75 pour les 75 % les plus élevés à prendre en compte. Définissez p sur 1 pour prendre en compte tous les jetons.

Séquence d'arrêt

Séquence de caractères (par exemple, un mot, une expression, un retour à la ligne (\n) ou un point) indiquant au modèle quand arrêter la sortie générée. Si vous disposez de plusieurs séquences d'arrêt, le modèle s'arrête lorsqu'il atteint l'une d'elles.

Pénalité de fréquence

Pénalité affectée à un jeton lorsque ce dernier apparaît fréquemment. Les pénalités élevées réduisent la répétition des sèmes et génèrent une sortie plus aléatoire.

Peine de présence

Pénalité affectée à chaque sème lorsqu'il apparaît dans la sortie pour encourager la génération de sorties avec des sèmes qui n'ont pas été utilisés.

Afficher les probabilités

Chaque fois qu'un sème doit être généré, un nombre compris entre -15 et 0 est affecté à tous les sèmes. Les sèmes ayant un nombre plus élevé sont plus susceptibles de suivre le sème en cours. Par exemple, il est plus probable que le mot favorite soit suivi du mot food ou book que du mot zebra. Ce paramètre est disponible uniquement pour les modèles cohere.