注意:

使用一键部署通过 Oracle Resource Manager 在 OCI Compute A10 实例上运行 Mistral LLM 模型

简介

Oracle Cloud Infrastructure (OCI) Compute 支持您创建不同类型的配置,以测试本地部署的人工智能 (AI) 模型的图形处理单元 (GPU)。在本教程中,我们将 A10 配置与预先存在的 VCN 和子网资源结合使用,您可以从 Oracle 资源管理器中选择这些资源。

Terraform 代码还包括将实例配置为为自然语言处理任务运行本地虚拟大语言模型 (vLLM) 分散模型。

目标

先决条件

任务 1:下载用于一键部署的 Terraform 代码

从以下位置下载 ORM Terraform 代码:orm_stack_a10_gpu-main.zip ,以在本地实施 Mistral vLLM 模型,这将允许您选择现有 VCN 和子网以测试在 A10 实例配置中本地部署 Mistral vLLM 模型。

在本地下载 ORM Terraform 代码后,请按照以下步骤操作:从文件夹创建堆栈上载堆栈并执行 Terraform 代码应用。

注:请确保已创建 OCI 虚拟云网络 (VCN) 和将部署 VM 的子网。

任务 2:在 OCI 上创建 VCN(如果尚未创建,则为可选)

要在 Oracle Cloud Infrastructure 中创建 VCN,请参阅:视频了解如何在 OCI 上创建虚拟云网络

或者

要创建 VCN,请执行以下操作:

  1. 登录到 OCI 控制台,输入云租户名称用户名密码

  2. 单击左上角的汉堡菜单(≡)。

  3. 转到网络虚拟云网络,然后从列表范围部分中选择适当的区间。

  4. 选择 VCN with Internet Connectivity ,然后单击 Start VCN Wizard(启动 VCN 向导)

  5. 创建具有 Internet 连接的 VCN 页中,输入以下信息并单击下一步

    • VCN 名称:输入 OCI_HOL_VCN
    • COMPARTMENT(COMPARTMENT):选择相应的区间。
    • VCN CIDR 块:输入 10.0.0.0/16
    • PUBLIC SUBNET CIDR BLOCK:输入 10.0.2.0/24
    • PRIVATE SUBNET CIDR BLOCK:输入 10.0.1.0/24
    • DNS 解析:选择 USE DNS HOSTNAMES IN THIS VCN

    创建 VCN 配置

    插图 setupVCN3.png 的说明

  6. 复查页中,复查您的设置,然后单击创建

    复查 CV 配置

    插图 setupVCN4.png 的说明

    创建 VCN 需要一些时间,而进度屏幕会让您随时了解工作流。

    工作流

    插图 workflow.png 的说明

  7. 创建 VCN 后,单击查看虚拟云网络

    在实际情况下,您将根据访问需求(要打开哪些端口)以及谁可以访问这些 VCN 来创建多个 VCN。

任务 3:请参见 cloud-init 配置详细信息

cloud-init 脚本将安装所有必需的依赖项,启动 Docker,下载并启动 vLLM Mistral 模型。您可以在任务 1 中下载的 cloudinit.sh 文件中找到以下代码。

dnf install -y dnf-utils zip unzip
dnf config-manager --add-repo=https://download.docker.com/linux/centos/docker-ce.repo
dnf remove -y runc
dnf install -y docker-ce --nobest
systemctl enable docker.service
dnf install -y nvidia-container-toolkit
systemctl start docker.service
...

Cloud-init 将根据 Hugging Face 中预定义的 API 标记下载运行 Mistral 模型所需的所有文件。

API 令牌创建将根据您从 ORM GUI 输入选择 Mistral 模型,从而允许在本地下载模型文件所需的验证。有关详细信息,请参阅用户访问令牌

任务 4:监视系统

使用以下命令(如果需要)跟踪 cloud-init 脚本完成情况和 GPU 资源使用情况。

任务 5:测试模型集成

使用命令或 Jupyter Notebook 详细信息通过以下方式与模型交互。

任务 6:使用 Docker 部署模型(如果需要)

或者,使用 Docker 和外部源部署模型。

docker run --gpus all \
    -v ~/.cache/huggingface:/root/.cache/huggingface \
    --env "HUGGING_FACE_HUB_TOKEN=$ACCESS_TOKEN" \
    -p 8000:8000 \
    --ipc=host \
    --restart always \
    vllm/vllm-openai:latest \
    --model mistralai/$MODEL \
    --max-model-len 16384

可以通过以下方式查询模型:

确认

更多学习资源

浏览 docs.oracle.com/learn 上的其他实验室,或者访问 Oracle Learning YouTube 渠道上的更多免费学习内容。此外,请访问 education.oracle.com/learning-explorer 成为 Oracle Learning Explorer。

有关产品文档,请访问 Oracle 帮助中心