Modelli

Informazioni su Model Explorer in Azioni rapide AI.

In Modelli è possibile trovare Esplora modelli che mostra tutti i modelli di base supportati da Azioni rapide AI e i modelli ottimizzati. Le schede modello includono un tag per indicare la famiglia di forme supportate per il modello. Immettere il testo nella casella di testo Cerca e filtra modelli per cercare un modello nell'elenco. In alternativa, selezionare la casella di testo e selezionare un'opzione in cui filtrare la lista di modelli. In Modelli personali sono inclusi i modelli di base inseriti nella cache del servizio, i modelli pronti per la registrazione e i modelli registrati. I modelli inseriti nella cache del servizio sono modelli la cui configurazione è stata verificata dal team di Data Science e sono pronti per essere utilizzati senza il download degli artifact del modello. I modelli pronti per la registrazione sono modelli le cui configurazioni sono state verificate dal team di Data Science e che è possibile inserire nelle azioni rapide AI tramite il processo di registrazione dei modelli. In Modelli ottimizzati sono disponibili modelli ottimizzati.

Modelli inseriti nella cache del servizio

I modelli inseriti nella cache del servizio sono stati testati da Data Science e gli artifact del modello vengono scaricati in un bucket nello storage degli oggetti del servizio. Sono pronti per essere utilizzati.

I modelli di servizio inseriti nella cache disponibili sono:
  • Almawave/Velvet-14B
  • codellama-34b-instruct-hf
  • codellama-13b-instruct-hf
  • codellama-7b-instruct-hf
  • mistralai/Mixtral-8x7b-v0.1

  • Mistralai/Mistral-7b-Instruct-v0.3

  • mixtral-8x7b-instruct-v0.1
  • mistral-7b-instruct-v0.2
  • maestrale 7b-v0.1
  • mistral-7b-instruct-v0.1
  • falco-7b
  • phi-2
  • falcon-40b-instruct
  • microsoft/Phi-3-vision-128k-instruct
  • microsoft/Phi-3-mini-128k-instruct
  • microsoft/Phi-3-mini-4k-instruct
  • microsoft/Phi-3-mini-4k-instruct-gguf-fp16
  • microsoft/Phi-3-mini-4k-instruct-gguf-q4
  • microsoft/Phi-4-multimodal-istruttore
  • microsoft/phi-4-gguf
  • microsoft/phi-4
  • microsoft/Phi-3.5-vision-instruct
  • microsoft/Phi-3.5-MoE-instruct
  • microsoft/Phi-3.5-mini-instruct
  • meta-llama/Meta-Llama-3.1-8B
  • meta-llama/Meta-Llama-3.1-8B-Istruzione
  • meta-llama/Meta-Llama-3.1-70B
  • meta-llama/Meta-Llama-3.1-70B-Instruct
  • meta-llama/Meta-Llama-3.1-405B-Instruct-FP8
  • meta-llama/Meta-Llama-3.1-405B-FP8
  • meta-llama/Llama-3.3-70B-Instruct
  • ibm-granite/granite-3.3-2b-istruzioni
  • ibm-granite/granite-3.3-8b-istruzioni
  • ibm-granite/granite-3.3-8b-instruct-GGUF
  • ibm-granite/granite-visione-3.2-2b
  • ibm-granito/granito-incorporamento-278m-multilinguale

Modelli pronti per la registrazione

I modelli pronti per la registrazione sono stati testati da Data Science e possono essere utilizzati in AI Quick Actions tramite il processo di registrazione dei modelli.

I modelli pronti per la registrazione sono:
  • core42/jais-13b-chat
  • core42/ais-13b
  • lama-3-70b-istruire
  • lama-3-8b-istruire
  • meta-llama/Llama-3.2-1B
  • meta-llama/Llama-3.2-1B-Instruct
  • meta-llama/Llama-3.2-3B
  • meta-llama/Llama-3.2-3B-Instruct
  • meta-llama/Llama-3.2-11B-Vision
  • meta-llama/Llama-3.2-90B-Vision
  • meta-llama/Llama-3.2-11B-Vision-Instruct
  • meta-llama/Llama-3.2-90B-Vision-Instruct
  • meta-llama-3-8b
  • meta-llama-3-70b
  • ELYZA/ELYZA-giapponese-Llama-2-13b-instruct
  • ELYZA/ELYZA-giapponese-Llama-2-7b-instruct
  • ELYZA/ELYZA-giapponese-Llama-2-13b
  • ELYZA/ELYZA-giapponese-Llama-2-7b
  • google/gemma-1.1-7b-it
  • google/gemma-2b-it
  • google/gemma-2b
  • google/gemma-7b
  • google/codegemma-2b
  • google/codegemma-1.1-7b-it
  • google/codegemma-1.1-2b
  • google/codegemma-7b
  • intfloat/e5-mistral-7b-instruct
Nota

I modelli meta-llama/Meta-Llama-3.1 e meta-llama/Llama-3.2 non sono disponibili nelle aree dell'UE.

Utilizzo dei modelli multimodali

AI Quick Actions supporta la distribuzione di modelli multimodali. Per un esempio di distribuzione e test di un modello multimodale, vedere Esempi di azioni rapide AI nella sezione Data Science in GitHub.

Per utilizzare il payload dell'immagine e i modelli mulitmodal, durante la creazione di una distribuzione del modello, in Opzioni avanzate selezionare /v1/chat/completions come modalità di inferenza.