En savoir plus En savoir plus sur le déploiement d'un LLM sur OCI. Infrastructure d'IA OCI Présentation de Kubernetes Engine (OKE) Premiers LLM offrant expérience et résultats de performances avec les GPU AMD Instinct MI300X Inférence et utilisation de vLLM sur des GPU AMD