Modèles pris en charge pour l'importation

Vous pouvez importer de grands modèles de langage à partir de seaux de stockage d'objets Hugging Face et OCI dans le service d'intelligence artificielle générative pour OCI, créer des points d'extrémité pour ces modèles et les utiliser dans le service d'intelligence artificielle générative.

Architectures de modèle prises en charge

Le service d'IA générative prend en charge l'importation et le déploiement de modèles de langage de pointe à source ouverte et de tierce partie pour accélérer les initiatives d'IA. Les architectures de modèle suivantes sont prises en charge :

Modèles de clavardage

Les modèles de clavardage vous permettent de poser des questions et d'obtenir des réponses conversationnelles en contexte à partir de l'intelligence artificielle. Sélectionnez l'une des familles de modèles suivantes pour équilibrer la vitesse, la qualité et le coût pour le cas d'utilisation. Sélectionnez chaque lien pour obtenir la liste des modèles pris en charge avec leur ID modèle, la capacité du modèle et les formes recommandées d'unité de grappe dédiée à l'IA.

  • Alibaba Qwen 3 et Qwen 2

    Fonctions multilingues et multimodales avancées.

  • Google Gemma

    Conçu pour répondre à de grands besoins de traitement du langage et une grande polyvalence.

  • Llama2, Llama3, Llama3.1, Llama3.2, Llama3.3, Llama4

    Une version améliorée des modèles Meta Llama avec Grouped Query Attention (GQA).

  • Microsoft Phi

    Connu pour l'efficacité et la compacité, conçu pour des performances évolutives et flexibles.

  • OpenAI GptOss

    Une architecture de transformateur à poids ouvert avancée avec architecture Mixture-of-Experts (MoE), optimisée pour un raisonnement linguistique efficace et de haute qualité et une gestion de contexte étendue.

Intégrer un modèle

Un modèle d'intégration transforme les données d'entrée (telles que les mots et les images) en vecteurs numériques qui capturent leur signification sémantique ou leurs relations. Cela permet aux machines de comprendre les similitudes, les relations et les modèles au sein des données plus efficacement. Sélectionnez le lien suivant pour l'ID modèle, la capacité du modèle et la forme d'unité de grappe dédiée à l'IA recommandée.

  • Mistral

    Une architecture de transformateur haute performance, réservée aux décodeurs, dotée d'une fonction SWA (Sliding Window Attention) pour une manipulation efficace du contexte long et d'une fonction GQA (Grouped Query Attention) en option pour une évolutivité améliorée.