Note:

Ejecución del modelo de LLM de Mistral en la instancia A10 de OCI Compute con Oracle Resource Manager mediante el despliegue con un clic

Introducción

Oracle Cloud Infrastructure (OCI) Compute permite crear diferentes tipos de unidades para probar los modelos de unidad de procesamiento de gráficos (GPU) para inteligencia artificial (IA) desplegados localmente. En este tutorial, utilizaremos la unidad A10 con recursos de subred y VCN preexistentes que puede seleccionar de Oracle Resource Manager.

El código de Terraform también incluye la configuración de la instancia para ejecutar un modelo local de lenguaje grande virtual (vLLM) Mistral para tareas de procesamiento de lenguaje natural.

Objetivos

Requisitos

Tarea 1: Descarga del código de Terraform para el despliegue con un solo clic

Descargue el código de Terraform de ORM desde aquí: orm_stack_a10_gpu-main.zip para implantar modelos de Mistral vLLM de forma local, lo que le permitirá seleccionar una VCN existente y una subred para probar el despliegue local de modelos de Mistral vLLM en una unidad de instancia A10.

Una vez que haya descargado el código de Terraform de ORM de forma local, siga los pasos que se indican a continuación: Creación de una pila a partir de una carpeta para cargar la pila y ejecutar la aplicación del código de Terraform.

Nota: Asegúrese de haber creado una red virtual en la nube (VCN) de OCI y una subred en la que se desplegará la VM.

Tarea 2: Creación de una VCN en OCI (opcional si aún no se ha creado)

Para crear una VCN en Oracle Cloud Infrastructure, consulte: Vídeo para descubrir cómo crear una red virtual en la nube en OCI.

o bien,

Para crear una VCN, realice los siguientes pasos:

  1. Conéctese a la consola de OCI, introduzca Nombre de inquilino en la nube, Nombre de usuario y Contraseña.

  2. Haga clic en el menú de hamburguesa (≡) en la esquina superior izquierda.

  3. Vaya a Red, Redes virtuales en la nube y seleccione el compartimento adecuado en la sección Ámbito de lista.

  4. Seleccione VCN con conexión a Internet, y haga clic en Iniciar asistente de VCN.

  5. En la página Crear una VCN con conexión a Internet, introduzca la siguiente información y haga clic en Siguiente.

    • NOMBRE de VCN: introduzca OCI_HOL_VCN.
    • COMPARTMENT: seleccione el compartimento adecuado.
    • Bloqueo de CIDR de VCN: introduzca 10.0.0.0/16.
    • BLOQUE de CIDR de la SUBRED PÚBLICA: introduzca 10.0.2.0/24.
    • BLOQUE DE CIDR DE SUBNET PRIVADA: introduzca 10.0.1.0/24.
    • Resolución de DNS: seleccione Usar nombres de host de DNS en esta VCN.

    Creación de una configuración de VCN

    Descripción de la ilustración setupVCN3.png

  6. En la página Revisar, revise su configuración y haga clic en Crear.

    Revisar configuración de CV

    Descripción de la ilustración setupVCN4.png

    Tardará un momento en crear la VCN y una pantalla de progreso le mantendrá informado sobre el flujo de trabajo.

    Flujo de trabajo

    Descripción de la ilustración workflow.png

  7. Una vez creada la VCN, haga clic en View Virtual Cloud Network (Ver red virtual en la nube).

    En situaciones reales, creará varias redes virtuales en la nube en función de su necesidad de acceso (qué puertos abrir) y quién puede acceder a ellas.

Tarea 3: Consulte los detalles de configuración de cloud-init

El script cloud-init instala todas las dependencias necesarias, inicia Docker, descarga e inicia los modelos de vLLM Mistral. Puede encontrar el siguiente código en el archivo cloudinit.sh descargado en la tarea 1.

dnf install -y dnf-utils zip unzip
dnf config-manager --add-repo=https://download.docker.com/linux/centos/docker-ce.repo
dnf remove -y runc
dnf install -y docker-ce --nobest
systemctl enable docker.service
dnf install -y nvidia-container-toolkit
systemctl start docker.service
...

Cloud-init descargará todos los archivos necesarios para ejecutar el modelo de Mistral basado en su token de API predefinido en Hugging Face.

La creación de token de API seleccionará el modelo de Mistral en función de su entrada desde la GUI de ORM, lo que permitirá la autenticación necesaria para descargar los archivos de modelo localmente. Para obtener más información, consulte Tokens de acceso de usuario.

Tarea 4: Supervisión del sistema

Realice un seguimiento de la finalización del script cloud-init y el uso de recursos de GPU con los siguientes comandos (si es necesario).

Tarea 5: Prueba de la integración del modelo

Interactúe con el modelo de las siguientes formas mediante los comandos o los detalles de Jupyter Notebook.

Tarea 6: Despliegue del modelo con Docker (si es necesario)

También puede desplegar el modelo mediante Docker y el origen externo.

docker run --gpus all \
    -v ~/.cache/huggingface:/root/.cache/huggingface \
    --env "HUGGING_FACE_HUB_TOKEN=$ACCESS_TOKEN" \
    -p 8000:8000 \
    --ipc=host \
    --restart always \
    vllm/vllm-openai:latest \
    --model mistralai/$MODEL \
    --max-model-len 16384

Puede consultar el modelo de las siguientes formas:

Agradecimientos

Más recursos de aprendizaje

Explore otros laboratorios en docs.oracle.com/learn o acceda a más contenido de aprendizaje gratuito en el canal YouTube de Oracle Learning. Además, visite education.oracle.com/learning-explorer para convertirse en Oracle Learning Explorer.

Para obtener documentación sobre el producto, visite Oracle Help Center.