Informations complémentaires En savoir plus sur le déploiement d'un LLM sur OCI. Infrastructure d'IA OCI Aperçu du moteur Kubernetes (OKE) Expérience de service précoce pour le LLM et résultats de performance avec les processeurs graphiques AMD Instinct MI300X Inférencement et service avec vLLM sur les GPU AMD