자세히 살펴보기 OCI에서 LLM을 배포하는 방법에 대해 자세히 알아보세요. OCI AI 인프라 OKE(Kubernetes Engine) 개요 AMD Instinct MI300X GPU를 통한 초기 LLM 서비스 경험 및 성능 결과 AMD GPU에서 vLLM으로 추론 및 서비스 제공