Modelli
Informazioni su Model Explorer in Azioni rapide AI.
In Modelli è possibile trovare Esplora modelli che mostra tutti i modelli di base supportati da Azioni rapide AI e i modelli ottimizzati. Le schede modello includono un tag per indicare la famiglia di forme supportate per il modello. Immettere il testo nella casella di testo Cerca e filtra modelli per cercare un modello nell'elenco. In alternativa, selezionare la casella di testo e selezionare un'opzione in cui filtrare la lista di modelli. In Modelli personali sono inclusi i modelli di base inseriti nella cache del servizio, i modelli pronti per la registrazione e i modelli registrati. I modelli inseriti nella cache del servizio sono modelli la cui configurazione è stata verificata dal team di Data Science e sono pronti per essere utilizzati senza il download degli artifact del modello. I modelli pronti per la registrazione sono modelli le cui configurazioni sono state verificate dal team di Data Science e che è possibile inserire nelle azioni rapide AI tramite il processo di registrazione dei modelli. In Modelli ottimizzati sono disponibili modelli ottimizzati.
Modelli inseriti nella cache del servizio
I modelli inseriti nella cache del servizio sono stati testati da Data Science e gli artifact del modello vengono scaricati in un bucket nello storage degli oggetti del servizio. Sono pronti per essere utilizzati.
- Almawave/Velvet-14B
- codellama-34b-instruct-hf
- codellama-13b-instruct-hf
- codellama-7b-instruct-hf
-
mistralai/Mixtral-8x7b-v0.1
-
Mistralai/Mistral-7b-Instruct-v0.3
- mixtral-8x7b-instruct-v0.1
- mistral-7b-instruct-v0.2
- maestrale 7b-v0.1
- mistral-7b-instruct-v0.1
- falco-7b
- phi-2
- falcon-40b-instruct
- microsoft/Phi-3-vision-128k-instruct
- microsoft/Phi-3-mini-128k-instruct
- microsoft/Phi-3-mini-4k-instruct
- microsoft/Phi-3-mini-4k-instruct-gguf-fp16
- microsoft/Phi-3-mini-4k-instruct-gguf-q4
- microsoft/Phi-4-multimodal-istruttore
- microsoft/phi-4-gguf
- microsoft/phi-4
- microsoft/Phi-3.5-vision-instruct
- microsoft/Phi-3.5-MoE-instruct
- microsoft/Phi-3.5-mini-instruct
- meta-llama/Meta-Llama-3.1-8B
- meta-llama/Meta-Llama-3.1-8B-Istruzione
- meta-llama/Meta-Llama-3.1-70B
- meta-llama/Meta-Llama-3.1-70B-Instruct
- meta-llama/Meta-Llama-3.1-405B-Instruct-FP8
- meta-llama/Meta-Llama-3.1-405B-FP8
- meta-llama/Llama-3.3-70B-Instruct
- ibm-granite/granite-3.3-2b-istruzioni
- ibm-granite/granite-3.3-8b-istruzioni
- ibm-granite/granite-3.3-8b-instruct-GGUF
- ibm-granite/granite-visione-3.2-2b
- ibm-granito/granito-incorporamento-278m-multilinguale
Modelli pronti per la registrazione
I modelli pronti per la registrazione sono stati testati da Data Science e possono essere utilizzati in AI Quick Actions tramite il processo di registrazione dei modelli.
- core42/jais-13b-chat
- core42/ais-13b
- lama-3-70b-istruire
- lama-3-8b-istruire
- meta-llama/Llama-3.2-1B
- meta-llama/Llama-3.2-1B-Instruct
- meta-llama/Llama-3.2-3B
- meta-llama/Llama-3.2-3B-Instruct
- meta-llama/Llama-3.2-11B-Vision
- meta-llama/Llama-3.2-90B-Vision
- meta-llama/Llama-3.2-11B-Vision-Instruct
- meta-llama/Llama-3.2-90B-Vision-Instruct
- meta-llama-3-8b
- meta-llama-3-70b
- ELYZA/ELYZA-giapponese-Llama-2-13b-instruct
- ELYZA/ELYZA-giapponese-Llama-2-7b-instruct
- ELYZA/ELYZA-giapponese-Llama-2-13b
- ELYZA/ELYZA-giapponese-Llama-2-7b
- google/gemma-1.1-7b-it
- google/gemma-2b-it
- google/gemma-2b
- google/gemma-7b
- google/codegemma-2b
- google/codegemma-1.1-7b-it
- google/codegemma-1.1-2b
- google/codegemma-7b
- intfloat/e5-mistral-7b-instruct
I modelli meta-llama/Meta-Llama-3.1 e meta-llama/Llama-3.2 non sono disponibili nelle aree dell'UE.
Utilizzo dei modelli multimodali
AI Quick Actions supporta la distribuzione di modelli multimodali. Per un esempio di distribuzione e test di un modello multimodale, vedere Esempi di azioni rapide AI nella sezione Data Science in GitHub.
Per utilizzare il payload dell'immagine e i modelli mulitmodal, durante la creazione di una distribuzione del modello, in Opzioni avanzate selezionare /v1/chat/completions
come modalità di inferenza.