部署 LLM
若要部署 LLM,您必須先在 OCI 中建立 BM.GPU.MI300X.8 執行處理。
接著,您可以使用 OCI 區塊磁碟區服務來儲存資料、物件及非結構化模型資料。依照指示完成每項任務:
這會將模型從 OCI Object Storage 部署到在 OCI 上執行的 OKE 叢集。
接著,您可以使用 OCI 區塊磁碟區服務來儲存資料、物件及非結構化模型資料。依照指示完成每項任務:
這會將模型從 OCI Object Storage 部署到在 OCI 上執行的 OKE 叢集。
Deploy LLM using AMD Instinct accelerators in OCI
G37983-01
July 2025