Nota

Esegui modello LLM Mistral sull'istanza di OCI Compute A10 con Oracle Resource Manager utilizzando la distribuzione con un clic

Introduzione

Oracle Cloud Infrastructure (OCI) Compute ti consente di creare diversi tipi di forme per testare i modelli GPU (Graphics Processing Unit) per l'intelligenza artificiale (AI) distribuiti localmente. In questa esercitazione verrà utilizzata la forma A10 con una VCN e risorse di subnet preesistenti che è possibile selezionare da Oracle Resource Manager.

Il codice Terraform include anche la configurazione dell'istanza per l'esecuzione di un modello o di modelli Mistral Virtual Large Language Model (vLLM) locale per i task di elaborazione del linguaggio naturale.

Obiettivi

Prerequisiti

Task 1: scaricare il codice Terraform per la distribuzione con un clic

Scarica il codice Terraform ORM da qui: orm_stack_a10_gpu-main.zip, per implementare localmente i modelli vLLM Mistral che ti consentiranno di selezionare una VCN e una subnet esistenti per eseguire il test della distribuzione locale dei modelli vLLM Mistral in una forma di istanza A10.

Dopo aver scaricato localmente il codice Terraform ORM, seguire la procedura descritta di seguito: Creazione di uno stack da una cartella per caricare lo stack ed eseguire l'applicazione del codice Terraform.

Nota: assicurarsi di aver creato una rete cloud virtuale (VCN) OCI e una subnet in cui verrà distribuita la VM.

Task 2: creare una VCN su OCI (facoltativo se non è già stata creata)

Per creare una VCN in Oracle Cloud Infrastructure, consulta: Video per scoprire come creare una rete cloud virtuale su OCI.

o

Per creare una VCN, effettuare le operazioni riportate di seguito.

  1. Eseguire il login a OCI Console, immettere Nome tenant cloud, Nome utente e Password.

  2. Clicca sul menu hamburger (≡) dall'angolo in alto a sinistra.

  3. Andare a Rete di rete, Reti cloud virtuali e selezionare il compartimento appropriato dalla sezione Elenco ambito.

  4. Selezionare VCN con connettività Internet e fare clic su Avvia procedura guidata VCN.

  5. Nella pagina Crea una VCN con connettività Internet, immettere le informazioni riportate di seguito e fare clic su Avanti.

    • NOME della VCN: immettere OCI_HOL_VCN.
    • COMPARTMENT: selezionare il compartimento appropriato.
    • Bloc CIDR VCN: immettere 10.0.0.0/16.
    • BLOC CIDR SUBNET PUBLIC: immettere 10.0.2.0/24.
    • BLOC CIDR PRIVATE SUBNET: immettere 10.0.1.0/24.
    • Risoluzione DNS: selezionare USI HOSTNAMES DNS IN questa VCN.

    Creare una configurazione VCN

    Descrizione dell'immagine setupVCN3.png

  6. Nella pagina Rivedi, rivedere le impostazioni e fare clic su Crea.

    Rivedi configurazione CV

    Descrizione dell'immagine setupVCN4.png

    La creazione della VCN richiederà un momento e una schermata di avanzamento ti manterrà al corrente del flusso di lavoro.

    Flusso di lavoro

    Descrizione dell'immagine workflow.png

  7. Dopo aver creato la VCN, fare clic su Visualizza rete cloud virtuale.

    In situazioni reali, creerai più VCN in base alla loro necessità di accesso (quali porte aprire) e a chi può accedervi.

Task 3: vedere i dettagli di configurazione di cloud-init

Lo script cloud-init installa tutte le dipendenze necessarie, avvia Docker, scarica e avvia il modello o i modelli Mistral vLLM. È possibile trovare il codice seguente nel file cloudinit.sh scaricato nel task 1.

dnf install -y dnf-utils zip unzip
dnf config-manager --add-repo=https://download.docker.com/linux/centos/docker-ce.repo
dnf remove -y runc
dnf install -y docker-ce --nobest
systemctl enable docker.service
dnf install -y nvidia-container-toolkit
systemctl start docker.service
...

Cloud-init scaricherà tutti i file necessari per eseguire il modello Mistral in base al token API predefinito in Hugging Face.

La creazione del token API selezionerà il modello Mistral in base all'input fornito dalla GUI di ORM, consentendo l'autenticazione necessaria per scaricare localmente i file del modello. Per ulteriori informazioni, vedere Token di accesso utente.

Task 4: Monitorare il sistema

Traccia il completamento dello script cloud-init e l'uso delle risorse GPU con i seguenti comandi (se necessario).

Task 5: Test dell'integrazione del modello

Interagire con il modello nei modi seguenti utilizzando i comandi o i dettagli di Jupyter Notebook.

Task 6: distribuire il modello utilizzando Docker (se necessario)

In alternativa, distribuisci il modello utilizzando Docker e un'origine esterna.

docker run --gpus all \
    -v ~/.cache/huggingface:/root/.cache/huggingface \
    --env "HUGGING_FACE_HUB_TOKEN=$ACCESS_TOKEN" \
    -p 8000:8000 \
    --ipc=host \
    --restart always \
    vllm/vllm-openai:latest \
    --model mistralai/$MODEL \
    --max-model-len 16384

È possibile eseguire una query sul modello nei modi riportati di seguito.

Conferme

Altre risorse di apprendimento

Esplora altri laboratori su docs.oracle.com/learn o accedi a più contenuti gratuiti sulla formazione su Oracle Learning YouTube channel. Inoltre, visita education.oracle.com/learning-explorer per diventare un Oracle Learning Explorer.

Per la documentazione del prodotto, visita l'Oracle Help Center.