Modelos
Saiba mais sobre o Model Explorer em AI Quick Actions.
Em Modelos, você pode encontrar o Model Explorer que mostra todos os modelos básicos suportados pelas Ações Rápidas de IA e seus modelos ajustados. As placas de modelo incluem uma tag para indicar a família de formas suportadas para o modelo. Informe o texto na caixa de texto Pesquisar e filtrar modelos para procurar um modelo na lista. Ou selecione a caixa de texto e selecione uma opção para filtrar a lista de modelos. Em Meus modelos estão modelos básicos armazenados em cache de serviço, modelos prontos para registro e modelos registrados por você. Os modelos em cache de serviço são modelos cuja configuração foi verificada pela equipe do Data Science e estão prontos para serem usados sem o download de artefatos de modelo. Modelos prontos para registro são modelos cujas configurações foram verificadas pela equipe do Data Science e que você pode trazer para o AI Quick Actions por meio do processo de registro do modelo. Em Modelos ajustados estão os modelos que você ajustou.
Modelos Armazenados no Cache do Serviço
Os modelos armazenados em cache do serviço foram testados pelo Data Science e os artefatos do modelo são baixados para um bucket no armazenamento de objetos do serviço. Eles estão prontos para serem usados.
- Almawave/Velvet-14B
- codellama-34b-instruir-hf
- codellama-13b-instruir-hf
- codellama-7b-instruir-hf
- 
mistralai/Mistral-8x7b-v0.1 
- 
mistralai/Mistral-7b-Instrução-v0.3 
- mixtral-8x7b-instruir-v0.1
- mistral-7b-instruir-v0.2
- mistral-7b-v0.1
- mistral-7b-instruir-v0.1
- falcão-7b
- phi-2
- falcão-40b-instruir
- microsoft/Phi-3-vision-128k-instruir
- microsoft/Phi-3-mini-128k-instruir
- microsoft/Phi-3-mini-4k-instruir
- microsoft/Phi-3-mini-4k-instruir-gguf-fp16
- microsoft/Phi-3-mini-4k-instruir-gguf-q4
- microsoft/Phi-4-multimodal-instruct
- microsoft/phi-4-gguf
- microsoft/phi-4
- microsoft/Phi-3.5-instrução de visão
- microsoft/Phi-3.5-MoE-instruir
- microsoft/Phi-3.5-mini-instruir
- meta-llama/Meta-Lama-3.1-8B
- meta-llama/Meta-Lama-3.1-8B-Instrução
- meta-llama/Meta-Lama-3.1-70B
- meta-llama/Meta-Lama-3.1-70B-Instruir
- meta-llama/Meta-Lama-3.1-405B-Instrução-FP8
- meta-llama/Meta-Lama-3.1-405B-FP8
- meta-llama/Lama-3.3-70B-Instrução
- ibm-granite/granite-3.3-2b-instrução
- ibm-granite/granite-3.3-8b-instrução
- ibm-granito/granito-3.3-8b-instrução-GGUF
- ibm-granito/granito-visão-3.2-2b
- ibm-granito/granito-incorporação-278m-multilíngue
- openai/gpt-oss-120b
- openai/gpt-oss-20b
- Lhama-3.2-1B
- Llama-3.2-1B-Instrução
- Lhama-3.2-3B
- Llama-3.2-3B-Instrução
- Lhama-3.2-11B-Visão
- Llama-3.2-11B-Vision-Instruct
- Lhama-3.2-90B-Visão
- Llama-3.2-90B-Vision-Instruct
- Llama-4-Maverick-17B-128E-Instruct-FP8
- Lhama-4-Scout-17B-16E
- Llama-4-Scout-17B-16E-Instruct
- granito-speech-3.3-8b
- granito-timeseries-ttm-r1
- granito-4.0-minúsculo-base-preview
- granito-4.0-visualização minúscula
Modelos Prontos para Registro
Os modelos prontos para registro foram testados pelo Data Science e podem ser usados em Ações Rápidas de IA por meio do processo de Registro de Modelo.
- core42/jais-13b-chat
- core42/jais-13b
- llama-3-70b-instruct
- llama-3-8b-instruct
- meta-llama-3-8b
- meta-llama-3-70b
- ELYZA/ELYZA-japonês-Lhama-2-13b-instruir
- ELYZA/ELYZA-japonês-Lhama-2-7b-instruir
- ELYZA/ELYZA-japonês-Lhama-2-13b
- ELYZA/ELYZA-japonês-Lhama-2-7b
- google/gemma-1.1-7b-it
- google/gemma-2b-it
- google/gemma-2b
- google/gemma-7b
- google/codegemma-2b
- google/codegemma-1.1-7b-it
- google/codegemma-1.1-2b
- google/codegemma-7b
- intfloat/e5-mistral-7b-instruct
Trabalhando com Modelos Multimodais
O AI Quick Actions suporta a implantação de modelos multimodais. Para obter um exemplo de implantação e teste de um modelo multimodal, consulte as amostras de Ações Rápidas de IA na seção Data Science em GitHub.
Para trabalhar com payload de imagem e modelos mulitmodais, ao criar uma Implantação de Modelo, em Opções avançadas, selecione /v1/chat/completions como Modo de Inferência.