Modèles
En savoir plus sur l'explorateur de modèles dans les actions rapides de l'intelligence artificielle.
Sous Modèles, vous pouvez trouver l'explorateur de modèles qui présente tous les modèles de base pris en charge par les actions rapides de l'intelligence artificielle et vos modèles ajustés. Les cartes de modèle comprennent une balise pour indiquer la famille de formes prises en charge pour le modèle. Entrez du texte dans la zone de texte Rechercher et filtrer les modèles pour rechercher un modèle dans la liste. Ou sélectionnez la zone de texte et sélectionnez une option sur laquelle filtrer la liste des modèles. Sous Mes modèles se trouvent les modèles de base mis en cache pour le service, les modèles prêts à l'enregistrement et les modèles que vous avez enregistrés. Les modèles mis en cache du service sont des modèles dont la configuration a été vérifiée par l'équipe du service de science des données et qui sont prêts à être utilisés sans téléchargement d'artefacts de modèle. Les modèles prêts à enregistrer sont des modèles dont les configurations ont été vérifiées par l'équipe du service de science des données et que vous pouvez utiliser pour des actions rapides du service d'intelligence artificielle au moyen du processus d'enregistrement des modèles. Sous Modèles réglés avec précision se trouvent les modèles que vous avez réglés avec précision.
Modèles mis en cache pour le service
Les modèles mis en cache du service ont été testés par le service de science des données et les artefacts de modèle sont téléchargés dans un seau du stockage d'objets du service. Ils sont prêts à être utilisés.
- Almawave/Velvet-14B
- codellama-34b-instruct-hf
- codellama-13b-instruct-hf
- codellama-7b-instruct-hf
-
mistralai/Mixtral-8x7b-v0.1
-
mistralai/Mistral-7b-Instruct-v0.3
- mixtral-8x7b-instruct-v0.1
- mistral-7b-instruct-v0.2
- mistral-7b-v0.1
- mistral-7b-instruct-v0.1
- falcon-7b
- phi-2
- falcon-40b-instruct
- microsoft/Phi-3-vision-128k-instruct
- microsoft/Phi-3-mini-128k-instruct
- microsoft/Phi-3-mini-4k-instruct
- microsoft/Phi-3-mini-4k-instruct-gguf-fp16
- microsoft/Phi-3-mini-4k-instruct-gguf-q4
- microsoft/Phi-4-multimodal-instruct
- microsoft/phi-4-gguf
- microsoft/phi-4
- microsoft/Phi-3.5-vision-instruct
- microsoft/Phi-3.5-MoE-instruct
- microsoft/Phi-3.5-mini-instruct
- meta-llama/Meta-Llama-3.1-8B
- meta-llama/Meta-Llama-3.1-8B-Instruction
- meta-llama/Meta-Llama-3.1-70B
- meta-llama/Meta-Llama-3.1-70B-Instruction
- meta-llama/Meta-Llama-3.1-405B-Instruction-FP8
- meta-llama/Meta-Llama-3.1-405B-FP8
- meta-llama/Llama-3.3-70B-Instruction
- ibm-granite/granite-3.3-2b-instruct
- ibm-granite/granite-3.3-8b-instruct
- ibm-granite/granite-3.3-8b-instruct-GGUF
- ibm-granite/granite-vision-3.2-2b
- ibm-granite/granite-embedding-278m-multilingue
- openai/gpt-oss-120b
- openai/gpt-oss-20b
- Llama-3.2-1B
- Llama-3.2-1B-Instruction
- Llama-3.2-3B
- Llama-3.2-3B-Instruction
- Llama-3.2-11B-Vision
- Llama-3.2-11B-Vision-Instruction
- Llama-3.2-90B-Vision
- Llama-3.2-90B-Vision-Instruction
- Llama-4-Maverick-17B-128E-Instruction-FP8
- Llama-4-Scout-17B-16E
- Llama-4-Scout-17B-16E-Instruction
- granite-discours-3.3-8b
- granite-timeseries-ttm-r1
- granit-4.0-tiny-base-preview
- granit-4.0-minuscule-prévisualisation
Modèles prêts à s'inscrire
Les modèles prêts à s'inscrire ont été testés par le service de science des données et peuvent être utilisés dans des actions rapides du service d'intelligence artificielle au moyen du processus d'inscription de modèle.
- core42/jais-13b-chat
- core42/jais-13b
- llama-3-70b-instruct
- llama-3-8b-instruct
- méta-llama-3-8b
- méta-llama-3-70b
- ELYZA/ELYZA-japonais-Llama-2-13b-instruire
- ELYZA/ELYZA-japonais-Llama-2-7b-instruire
- ELYZA/ELYZA-japonais-Llama-2-13b
- ELYZA/ELYZA-japonais-Llama-2-7b
- google/gemma-1.1-7b-it
- google/gemma-2b-it
- google/gemma-2b
- google/gemma-7b
- google/codegemma-2b
- google/codegemma-1.1-7b-it
- google/codegemma-1.1-2b
- google/codegemma-7b
- intfloat/e5-mistral-7b-instruct
Utilisation de modèles multimodaux
AI Quick Actions prend en charge le déploiement de modèles multimodaux. Pour un exemple de déploiement et de test d'un modèle multimodal, voir les échantillons d'actions rapides de l'IA dans la section Science des données sur GitHub.
Pour utiliser les données utiles d'image et les modèles mulitmodaux, lors de la création d'un déploiement de modèle, sous Options avancées, sélectionnez /v1/chat/completions
comme mode d'inférence.