Mehr erfahren Erfahren Sie mehr über die Bereitstellung eines LLM auf OCI. OCI AI-Infrastruktur Überblick über Kubernetes Engine (OKE) Frühe LLM-Bereitstellung von Erfahrungen und Leistungsergebnissen mit AMD Instinct MI300X-GPUs Inferenzierung und Servierung mit vLLM auf AMD-GPUs