Modèles pris en charge pour l'importation

Vous pouvez importer des modèles de langage volumineux à partir de buckets Hugging Face et OCI Object Storage dans OCI Generative AI, créer des adresses pour ces modèles et les utiliser dans le service d'IA générative.

Architectures de modèle prises en charge

Le service d'IA générative prend en charge l'importation et le déploiement de modèles de langage open source et tiers de pointe pour accélérer les initiatives d'IA. Les architectures de modèle suivantes sont prises en charge :

Modèles de discussion

Les modèles de discussion vous permettent de poser des questions et d'obtenir des réponses conversationnelles en contexte à partir de l'IA. Sélectionnez l'une des familles de modèles suivantes pour équilibrer la vitesse, la qualité et le coût de l'exemple d'utilisation. Sélectionnez chaque lien pour obtenir la liste des modèles pris en charge avec leur ID de modèle, leur capacité de modèle et les formes d'unité de cluster d'IA dédiées recommandées.

  • Alibaba Qwen 3 et Qwen 2

    Fonctionnalités multilingues et multimodales avancées.

  • Google Gemma

    Conçu pour répondre à de larges besoins de traitement du langage et à une grande polyvalence.

  • Llama2, Llama3, Llama3.1, Llama3.2, Llama3.3, Llama4

    Une version améliorée des modèles Meta Llama avec Grouped Query Attention (GQA).

  • Microsoft Phi

    Connu pour son efficacité et sa compacité, conçu pour des performances évolutives et flexibles.

  • OpenAI GptOss

    Une architecture de transformateur avancée de poids ouvert avec l'architecture Mixture-of-Experts (MoE), optimisée pour un raisonnement de langage efficace et de haute qualité et une gestion de contexte large.

Modèle intégré

Un modèle d'intégration transforme les données d'entrée (telles que les mots et les images) en vecteurs numériques qui capturent leur signification sémantique ou leurs relations. Les machines peuvent ainsi mieux comprendre les similitudes, les relations et les modèles au sein des données. Sélectionnez le lien suivant pour l'ID de modèle, la fonctionnalité de modèle et la forme d'unité de cluster AI dédiée recommandée.

  • Mistral

    Une architecture de transformateur haute performance et décodeur uniquement avec Sliding Window Attention (SWA) pour une gestion efficace du contexte à long terme et une attention de requête groupée (GQA) facultative pour une évolutivité améliorée.