部署蓝图

请确保您有权访问 OCI 租户,并且您具有管理权限来提供足够的 CPU/GPU 实例。

  1. 使用下面的 Terraform 模块安装 OKE 集群。将使用 6 个 worker 节点创建具有单个节点池的 OKE 集群。
    1. 单击下面的部署到 Oracle Cloud

      部署到 Oracle Cloud

      如果您尚未登录,请输入租户和用户身份证明。

    2. 为堆栈提供一个 name (例如 oke-stack )。
    3. 选择部署 OCI AI 蓝图的区间
    4. 根据您的首选项提供任何其他参数(例如节点大小、节点计数)。
    5. 依次单击下一步创建,最后单击运行应用以预配集群。
  2. 登录 Oracle Cloud Infrastructure 控制台,在主页中单击存储,然后在对象存储下单击存储桶。提供将用于 OCI AI 蓝图部署的存储桶名称。

    单击您创建的存储桶,然后单击资源下的预先验证的请求 (PAR) 链接。为 PAR 指定名称,将访问类型更改为允许对象读取和写入,然后单击预先验证的请求。完成后,复制 PAR URL 并将其保存到某个位置,因为在部署 CPU 推断蓝图时需要该 URL。

  3. 在新的 OKE 集群中安装 OCI AI 蓝图。成功部署后,您将拥有用于访问 OCI AI Blueprints 控制台的 URL。

    部署到 Oracle Cloud

  4. 在 OCI AI Blueprints 主页上, Blueprint Binary 下提供了多个可供部署的蓝图,请向下滚动并单击 CPU Inference 下的 Deploy(部署)
    1. 选择 CPU Inference with mistralVM-Standard.E4。Flex 选项。

      使用默认参数并更改上面创建的预先验证身份的请求 URL。请勿更改配置参数部分中的任何值。

      请注意参数:

      "recipe_container_env": [
      {
      
      "key": "MODEL_NAME",
      
      "value": "mistral"
      
      },
      
      {
      
      "key": "PROMPT",
      
      "value": "What is the capital of Spain?"
      
      }
      

      成功部署 CPU 推断蓝图后,上述提示的输出将显示在 Kubernetes 云池日志中。

    2. 单击部署蓝图。成功部署蓝图后,您会看到一个名称,例如 cpu inference 雾值 E4Flex ,其中列出了监视部署状态以及创建日期、节点数和 E4 配置。
    3. 部署列表中,单击 cpu 推断误差 E4Flex 链接,这将使用公共端点转到部署详细信息。单击公共端点,您将看到一条消息,例如 "ollama is running"。
    4. 返回到 cpu 推断误差 E4Flex 页面,并向下滚动到 Pod logs 。单击查看日志详细信息。将显示一个类似于以下内容的页面,用于提供输出。

      显示蓝图云池日志输出的示例。