Observação:

Execute o Modelo Mistral LLM na Instância A10 do OCI Compute com o Oracle Resource Manager usando a Implantação com um Clique

Introdução

O Oracle Cloud Infrastructure (OCI) Compute permite criar diferentes tipos de formas para testar modelos gráficos de Unidade de Processamento (GPU) para Inteligência Artificial (AI) implantados localmente. Neste tutorial, usaremos a forma A10 com recursos de VCN e sub-rede pré-existentes que você pode selecionar no Oracle Resource Manager.

O código do Terraform também inclui configurar a instância para executar um modelo Mistral (vLLM) Virtual Large Language Model (VML) local para tarefas de processamento de linguagem natural.

Objetivos

Pré-requisitos

Tarefa 1: Fazer Download do Código do Terraform para Implantação com um Clique

Faça download do código do Terraform do ORM aqui: orm_stack_a10_gpu-main.zip, para implementar o(s) modelo(s) Mistral vLLM localmente, o que permitirá que você selecione uma VCN existente e uma sub-rede para testar a implantação local do(s) modelo(s) Mistral vLLM em uma forma de instância A10.

Depois de fazer download do código do Terraform do ORM localmente, siga as etapas a partir daqui: Criando uma Pilha com Base em uma Pasta para fazer upload da pilha e executar a aplicação do código do Terraform.

Observação: certifique-se de ter criado uma VCN (Rede Virtual na Nuvem) do OCI e uma sub-rede na qual a VM será implantada.

Tarefa 2: Criar uma VCN no OCI (Opcional se ainda não tiver sido criada)

Para criar uma VCN no Oracle Cloud Infrastructure, consulte: Vídeo para Explorar como criar uma Rede Virtual na Nuvem no OCI.

ou

Para criar uma VCN, siga as etapas:

  1. Faça log-in na Console do OCI, digite Nome do Tenant do Cloud, Nome do Usuário e Senha.

  2. Clique no menu de hambúrguer (≡) no canto superior esquerdo.

  3. Vá para Rede, Redes Virtuais na Nuvem e selecione o compartimento apropriado na seção Escopo da Lista.

  4. Selecione VCN com Conectividade de Internet, e clique em Iniciar Assistente de VCN.

  5. Na página Criar uma VCN com Conectividade de Internet, digite as informações a seguir e clique em Próximo.

    • VCN NAME: Digite OCI_HOL_VCN.
    • COMPARTAMENTO: Selecione o compartimento apropriado.
    • BLOCO CIDR de VCN: Digite 10.0.0.0/16.
    • BLOCO CIDR DA SUB-REDE PÚBLICA: Digite 10.0.2.0/24.
    • BLOCO CIDR da SUB-rede Privada: Digite 10.0.1.0/24.
    • Resolução de DNS: Selecione USE DNS HOSTNAMES IN THIS VCN.

    Criar uma Configuração de VCN

    Descrição da ilustração setupVCN3.png

  6. Na página Verificar, revise suas definições e clique em Criar.

    Verificar Configuração de CV

    Descrição da ilustração setupVCN4.png

    Levará um momento para criar a VCN e uma tela de andamento manterá você informado sobre o workflow.

    Fluxo de Trabalho

    Descrição da ilustração workflow.png

  7. Depois que a VCN for criada, clique em View Virtual Cloud Network.

    Em situações do mundo real, você criará várias VCNs com base em sua necessidade de acesso (quais portas abrir) e quem pode acessá-las.

Tarefa 3: Consulte os Detalhes da Configuração cloud-init

O script cloud-init instala todas as dependências necessárias, inicia o Docker, faz download e inicia o(s) modelo(s) vLLM Mistral. Você pode encontrar o código a seguir no arquivo cloudinit.sh baixado na Tarefa 1.

dnf install -y dnf-utils zip unzip
dnf config-manager --add-repo=https://download.docker.com/linux/centos/docker-ce.repo
dnf remove -y runc
dnf install -y docker-ce --nobest
systemctl enable docker.service
dnf install -y nvidia-container-toolkit
systemctl start docker.service
...

O Cloud-init fará download de todos os arquivos necessários para executar o modelo Mistral com base em seu token de API predefinido no Hugging Face.

A criação do token da API selecionará o modelo Mistral com base em sua entrada na GUI do ORM, permitindo a autenticação necessária para fazer download dos arquivos do modelo localmente. Para obter mais informações, consulte Tokens de acesso do usuário.

Tarefa 4: Monitorar o Sistema

Rastreie a conclusão do script cloud-init e o uso de recursos de GPU com os seguintes comandos (se necessário).

Tarefa 5: Testar a Integração do Modelo

Interaja com o modelo das seguintes maneiras usando os comandos ou os detalhes do Jupyter Notebook.

Tarefa 6: Implantar o Modelo usando o Docker (se necessário)

Como alternativa, implante o modelo usando o Docker e a origem externa.

docker run --gpus all \
    -v ~/.cache/huggingface:/root/.cache/huggingface \
    --env "HUGGING_FACE_HUB_TOKEN=$ACCESS_TOKEN" \
    -p 8000:8000 \
    --ipc=host \
    --restart always \
    vllm/vllm-openai:latest \
    --model mistralai/$MODEL \
    --max-model-len 16384

Você pode consultar o modelo das seguintes maneiras:

Agradecimentos

Mais Recursos de Aprendizagem

Explore outros laboratórios em docs.oracle.com/learn ou acesse mais conteúdo de aprendizado gratuito no canal Oracle Learning YouTube. Além disso, visite education.oracle.com/learning-explorer para se tornar um Oracle Learning Explorer.

Para obter a documentação do produto, visite o Oracle Help Center.