Discussion dans OCI Generative AI

Utilisez les grands modèles de discussion en langage fournis dans OCI Generative AI pour poser des questions et obtenir des réponses conversationnelles via un chatbot d'IA.

    1. Dans la barre de navigation de la console, sélectionnez une région avec l'IA générative, par exemple Midwest des Etats-Unis (Chicago) ou Sud du Royaume-Uni (Londres). Reportez-vous à les modèles proposés dans votre région.
    2. Ouvrez le menu de navigation et sélectionnez Analytiques et IA. Sous Services d'IA, sélectionnez IA générative.
    3. Sélectionnez un compartiment dans lequel vous êtes autorisé à travailler. Si vous ne voyez pas le playground de test, demandez à un administrateur de vous donner accès aux ressources Generative AI, puis passez aux étapes suivantes.
    4. Sélectionnez Playground de test.
    5. Sélectionnez Discussion.
    6. Sélectionnez un modèle pour l'expérience de discussion en effectuant l'une des actions suivantes :
      • Dans la liste Modèle, sélectionnez un modèle préentraîné, tel que meta.llama-3.1-70b-instruct, cohere.command-r-08-2024, cohere.command-r-plus-08-2024 ou un modèle personnalisé. Les modèles personnalisés sont affichés sous la forme d'un nom de modèle (nom de point de fin).
      • Sélectionnez Visualiser les détails du modèle, sélectionnez un modèle, puis Choisir un modèle.
      Remarque

      • Le modèle meta.llama-3.1-405b-instruct n'est pas disponible pour l'accès à la demande dans toutes les régions. Pour accéder à ce modèle, exécutez l'une des actions suivantes :

        • Configurer l'accès dédié : basculez vers une région prise en charge pour les clusters dédiés pour le modèle de discussion meta.llama-3.1-405b-instruct. Ensuite, créez un cluster d'hébergement et une adresse pour ce modèle.
        • Passer à une région à la demande : passez à la région Midwest des Etats-Unis (Chicago) prise en charge pour l'inférence à la demande pour le modèle de discussion meta.llama-3.1-405b-instruct.
      • Le modèle meta.llama-3.2-11b-vision-instruct n'est disponible pour l'accès à la demande dans aucune région. Pour accéder à ce modèle, effectuez l'une des opérations suivantes :

      En savoir plus sur les coûts et les retraits de modèle pour les modes de service dédié et à la demandes.

    7. Démarrez une conversation en saisissant une invite ou en sélectionnant un exemple à utiliser comme invite de base ou source d'apprentissage dans la liste Exemple.
      Pour les modèles qui acceptent des images telles que meta.llama-3.2-90b-vision-instruct, vous pouvez ajouter une image .png ou .jpg d'une taille inférieure ou égale à 5 Mo.
    8. (Facultatif) Définissez de nouvelles valeurs pour les paramètres. Pour plus de détails sur les paramètres, reportez-vous aux définitions de paramètre qui sélectionnent le modèle que vous utilisez, répertorié dans Modèles de discussion.
    9. Sélectionnez Soumettre.
    10. Entrez une nouvelle invite ou, pour poursuivre la conversation, entrez une invite de suivi et sélectionnez Soumettre.
      Important

      Dans le playground de test, pour les modèles de vision qui acceptent des images :
      • La soumission d'une image sans invite ne fonctionne pas. Lorsque vous soumettez une image, vous devez soumettre une invite concernant cette image dans la même demande. Vous pouvez ensuite soumettre des invites de suivi et le modèle conserve le contexte de la conversation.
      • Pour ajouter l'image et le texte suivants, vous devez effacer la discussion, ce qui entraîne la perte du contexte de la conversation précédente en raison de l'effacement de la discussion.
    11. (Facultatif) Pour modifier les réponses, sélectionnez Effacer la discussion, mettez à jour les invites et les paramètres, puis sélectionnez Soumettre. Répétez cette étape jusqu'à ce que la sortie vous convienne.
    12. (Facultatif) Pour copier le code qui a généré la sortie, sélectionnez Visualiser le code, sélectionnez un langage de programmation ou une structure, sélectionnez Copier le code, collez le code dans un fichier et enregistrez-le. Assurez-vous que le fichier conserve le format du code collé.
      Conseil

      Si vous utilisez le code dans une application :

    13. (Facultatif) Pour démarrer une nouvelle conversation, sélectionnez Effacer la discussion.
      Remarque

      • Lorsque vous sélectionnez Effacer la discussion, la conversation de discussion est effacée, mais les paramètres du modèle restent inchangés et vous pouvez continuer à utiliser les derniers paramètres que vous avez appliqués.

        Si vous passez à une autre fonctionnalité, telle que Génération, puis revenez au playground de test Discussion, les paramètres de conversation et de modèle reprennent leurs valeurs par défaut.

      En savoir plus sur les paramètres de discussion Cohere.

  • Pour discuter, utilisez l'opération chat-result dans l'interface de ligne de commande d'inférence d'IA générative.

    Entrez la commande suivante pour obtenir la liste des options à utiliser avec l'opération chat-result.

    oci generative-ai-inference chat-result -h

    Pour obtenir la liste complète des paramètres et des valeurs des commandes de l'interface de ligne de commande AI OCIGenerative, reportez-vous à Interface de ligne de commande d'inférence AI générative et à Interface de ligne de commande de gestion AI générative.

  • Exécutez l'opération de discussion pour discuter à l'aide des grands modèles de langage.

    Pour plus d'informations sur l'utilisation de l'API et la signature des demandes, reportez-vous à la documentation relative à l'API REST et à Informations d'identification de sécurité. Pour plus d'informations sur les kits SDK, reportez-vous à Kits SDK et interface de ligne de commande.