Modèles

En savoir plus sur Model Explorer dans AI Quick Actions.

Sous Modèles, vous pouvez trouver l'explorateur de modèles qui affiche tous les modèles de base pris en charge par les actions rapides AI et vos modèles affinés. Les cartes de modèle comprennent une balise indiquant la famille de formes prises en charge pour le modèle. Saisissez du texte dans la zone de texte Rechercher et filtrez les modèles pour rechercher un modèle dans la liste. Ou sélectionnez la zone de texte et sélectionnez une option pour filtrer la liste de modèles. Sous Mes modèles figurent les modèles de base mis en cache de service, les modèles prêts à être enregistrés et les modèles que vous avez enregistrés. Les modèles mis en cache de service sont des modèles dont la configuration a été vérifiée par l'équipe Data Science et qui sont prêts à être utilisés sans téléchargement d'artefacts de modèle. Les modèles prêts à être enregistrés sont des modèles dont les configurations ont été vérifiées par l'équipe Data Science et que vous pouvez intégrer dans des actions rapides d'IA via le processus d'enregistrement de modèle. Sous Modèles à réglage fin, vous avez affiné les modèles.

Modèles de service mis en cache

Les modèles mis en cache de service ont été testés par Data Science et les artefacts de modèle sont téléchargés vers un bucket dans le stockage d'objets du service. Ils sont prêts à être utilisés.

Les modèles de service mis en cache disponibles sont les suivants :
  • Almawave/Velvet-14B
  • codellama-34b-instructeur-hf
  • codellama-13b-instructeur-hf
  • codellama-7b-instructeur-hf
  • mistralai/Mixtral-8x7b-v0.1

  • mistralai/Mistral-7b-Enseignement-v0.3

  • mixtral-8x7b-instruct-v0.1
  • mistral-7b-instruct-v0.2
  • mistral-7b-v0.1
  • mistral-7b-instruct-v0.1
  • faucon-7b
  • phi-2
  • faucon-40b-instruire
  • microsoft/Phi-3-vision-128k-instruire
  • microsoft/Phi-3-mini-128k-instruire
  • microsoft/Phi-3-mini-4k-instruire
  • microsoft/Phi-3-mini-4k-instruct-gguf-fp16
  • microsoft/Phi-3-mini-4k-instruct-gguf-q4
  • microsoft/Phi-4-multimodal-instruct
  • microsoft/phi-4-gguf
  • microsoft/phi-4
  • microsoft/Phi-3.5-vision-instructeur
  • microsoft/Phi-3.5-MoE-instruire
  • microsoft/Phi-3.5-mini-instructeur
  • méta-llama/Meta-Llama-3.1-8B
  • méta-llama/Meta-Llama-3.1-8B-Enseigner
  • méta-llama/Meta-Llama-3.1-70B
  • méta-llama/Meta-Llama-3.1-70B-Enseigner
  • méta-llama/Meta-Llama-3.1-405B-Enseigner-FP8
  • méta-llama/Meta-Llama-3.1-405B-FP8
  • méta-llama/Llama-3.3-70B-Enseigner
  • ibm-granite/granite-3.3-2b-instruct
  • ibm-granite/granite-3.3-8b-instruct
  • ibm-granite/granite-3.3-8b-instruct-GGUF
  • ibm-granite/granite-vision-3.2-2b
  • ibm-granite/granite-embedding-278m-multilingue
  • openai/gpt-oss-120b
  • openai/gpt-oss-20b
  • Llama-3.2-1B
  • Llama-3.2-1B-Instruction
  • Llama-3.2-3B
  • Llama-3.2-3B-Instruction
  • Llama-3.2-11B-Vision
  • Llama-3.2-11B-Vision-Instruct
  • Llama-3.2-90B-Vision
  • Llama-3.2-90B-Vision-Instruct
  • Llama-4-Maverick-17B-128E-Instruct-FP8
  • Llama-4-Scout-17B-16E
  • Llama-4-Scout-17B-16E-Instruction
  • granite-parole-3.3-8b
  • granite-timeseries-ttm-r1
  • granite-4.0-tiny-base-aperçu
  • granite-4.0-tiny-aperçu

Modèles prêts à être enregistrés

Les modèles prêts à l'enregistrement ont été testés par Data Science et peuvent être utilisés dans des actions rapides d'IA via le processus d'enregistrement de modèle.

Les modèles prêts à être enregistrés sont les suivants :
  • core42/jais-13b-chat
  • core42/jais-13b
  • llama-3-70b-instructeur
  • llama-3-8b-instructeur
  • méta-llama-3-8b
  • méta-llama-3-70b
  • ELYZA/ELYZA-japonais-Llama-2-13b-instructeur
  • ELYZA/ELYZA-japonais-Llama-2-7b-instructeur
  • ELYZA/ELYZA-japonais-Llama-2-13b
  • ELYZA/ELYZA-japonais-Llama-2-7b
  • google/gemma-1.1-7b-it
  • google/gemma-2b-it
  • google/gemma-2b
  • google/gemma-7b
  • google/codegemma-2b
  • google/codegemma-1.1-7b-it
  • google/codegemma-1.1-2b
  • google/codegemma-7b
  • intfloat/e5-mistral-7b-instruct

Utiliser des modèles multimodaux

AI Quick Actions prend en charge le déploiement de modèles multimodaux. Pour obtenir un exemple de déploiement et de test d'un modèle multimodal, reportez-vous aux exemples d'actions rapides d'IA dans la section Data Science sur GitHub.

Pour utiliser la charge utile d'image et les modèles multimodaux, lors de la création d'un déploiement de modèle, sous Options avancées, sélectionnez /v1/chat/completions en tant que mode d'inférence.