部署 LLM
要部署 LLM,必须先在 OCI 中创建 BM.GPU.MI300X.8 实例。
然后,您可以使用 OCI Block Volumes 服务来存储数据、对象和非结构化模型数据。按照说明完成每个任务:
这会将模型从 OCI Object Storage 部署到在 OCI 上运行的 OKE 集群。
然后,您可以使用 OCI Block Volumes 服务来存储数据、对象和非结构化模型数据。按照说明完成每个任务:
这会将模型从 OCI Object Storage 部署到在 OCI 上运行的 OKE 集群。
Deploy LLM using AMD Instinct accelerators in OCI
G37982-01
July 2025