Modelli supportati per l'importazione

Puoi importare modelli di linguaggio di grandi dimensioni dai bucket di storage degli oggetti Hugging Face e OCI nell'AI generativa OCI, creare endpoint per tali modelli e utilizzarli nel servizio AI generativa.

Architetture modello supportate

Il servizio di intelligenza artificiale generativa supporta l'importazione e la distribuzione di modelli linguistici open source e di terze parti leader per accelerare le iniziative di intelligenza artificiale. Sono supportate le architetture modello riportate di seguito.

Modelli chat

I modelli di chat ti consentono di porre domande e ottenere risposte contestuali conversazionali dall'AI. Selezionare una delle seguenti famiglie di modelli per bilanciare la velocità, la qualità e il costo del caso d'uso. Selezionare ogni collegamento per una lista di modelli supportati con ID modello, funzionalità modello e forme di unità cluster AI dedicate consigliate.

  • Alibaba Qwen 3 e Qwen 2

    Funzionalità avanzate multilingue e multimodali.

  • Google Gemma

    Progettato per esigenze di elaborazione del linguaggio estese e alta versatilità.

  • Llama2, Llama3, Llama3.1, Llama3.2, Llama3.3, Llama4

    Una versione migliorata dei modelli Meta Llama con attenzione alle query raggruppate (GQA).

  • Microsoft Phi

    Conosciuto per efficienza e compattezza, progettato per prestazioni scalabili e flessibili.

  • OpenAI GptOss

    Un'architettura avanzata di trasformatori a peso aperto con architettura Mixture-of-Experts (MoE), ottimizzata per un ragionamento linguistico efficiente e di alta qualità e per una gestione del contesto di grandi dimensioni.

Incorpora modello

Un modello di incorporamento trasforma i dati di input (come parole e immagini) in vettori numerici che acquisiscono il loro significato semantico o le relazioni. Ciò consente alle macchine di comprendere in modo più efficace somiglianze, relazioni e pattern all'interno dei dati. Selezionare il collegamento seguente per l'ID modello, la funzionalità del modello e la forma di unità cluster AI dedicata consigliata.

  • Mistral

    Un'architettura Transformer ad alte prestazioni e solo decodificatore con Sliding Window Attention (SWA) per una gestione efficiente del lungo contesto e un'attenzione alle query raggruppate (GQA, Grouped Query Attention) opzionale per una maggiore scalabilità.