API Risposte OCI

Utilizza l'API Risposte OCI per chiamare i modelli supportati, generare output del modello e creare flussi di lavoro basati su strumenti o multi-passo attraverso un'unica API compatibile con OpenAI e conforme alle risposte aperte. Supporta input di testo e immagini e output di testo. È possibile utilizzarlo per creare interazioni con lo stato con la cronologia delle conversazioni, aggiungere strumenti supportati come Ricerca file e Interprete codice e connettere il modello a sistemi esterni tramite Chiamata funzione e Chiamata MCP.

Come l'API delle risposte si adatta alla creazione dell'agente

Utilizzare l'API Risposte insieme AI seguenti componenti di creazione degli agenti in OCI Generative AI:

Componente Scopo
API risposte API principale compatibile con OpenAI per l'interazione con modelli supportati e flussi di lavoro agenti.
Strumenti agente Strumenti per l'API Risposte, tra cui Ricerca file, Interprete codice, Chiamata funzione e Chiamata MCP.
Memoria agente Memoria per l'API Conversations, incluso l'accesso alla memoria a lungo termine e la compattazione del contesto di memoria a breve termine.
Elementi di base dell'agente API di base compatibile con OpenAI, ad esempio File, Vector Stores e Container, che è possibile utilizzare con l'API Responses per il controllo diretto sulle risorse.

Se necessario, è possibile utilizzare gli elementi di base di basso livello con l'API Risposte.

Cosa puoi fare con l'API delle risposte

Utilizzare l'API Risposte per effettuare le operazioni riportate di seguito.

  • Chiama modelli ospitati supportati e modelli importati.
  • Invia input di testo e immagine e ricevi output di testo.
  • Genera testo o output strutturati.
  • Eseguire prompt a passo singolo o flussi di lavoro a più fasi.
  • Aggiungere gli strumenti supportati nella richiesta.
  • Ripristinare le risposte al client.
  • Utilizza lo stato di conversazione gestito da OCI tramite l'API Conversations.
  • Riutilizza la cronologia delle conversazioni o gli output precedenti come contesto per le richieste successive.
  • Connettere il modello a sistemi e dati esterni tramite chiamata di funzione e chiamata MCP.
  • Combina le richieste del modello con file, vector store o container quando necessario.

Ciò ti consente di iniziare con un semplice prompt ed espanderti a flussi di lavoro più avanzati senza passare a un'API diversa.

Quando utilizzare l'API delle risposte

Per la maggior parte delle nuove applicazioni, iniziare con l'API Risposte.

Utilizzarlo quando si desidera:

  • Utilizza un'unica API per l'interazione del modello e le funzionalità agentic.
  • Aggiungere strumenti supportati a una richiesta modello.
  • Utilizzare la cronologia delle conversazioni gestita da OCI.
  • Genera output strutturati.
  • Crea flussi di lavoro che possono anche utilizzare file, archivi vettoriali o container quando necessario.

Endpoint API supportato

URL di base Percorso endpoint Autenticazione
https://inference.generativeai.${region}.oci.oraclecloud.com/openai/v1 /responses Chiave API o sessione IAM

Sostituire ${region} con un'area OCI supportata come us-chicago-1.

Sebbene il formato della richiesta sia compatibile con OpenAI, l'autenticazione utilizza le credenziali OCI, le richieste vengono instradate tramite gli endpoint di inferenza OCI Generative AI e le risorse e l'esecuzione rimangono in OCI.

Nota

L'API Risposte OCI utilizza lo stesso formato dell'API Risposte OpenAI con l'endpoint compatibile con OCI OpenAI. Per i dettagli relativi alla sintassi e alle richieste, consulta la documentazione dell'API OpenAI Responses. Se si utilizzano gli strumenti, assicurarsi di utilizzare solo i tipi di strumenti supportati dall'endpoint compatibile con OCI OpenAI.

Autenticazione

È possibile accedere agli endpoint compatibili con OCI OpenAI in due modi:

Utilizza le API key per test e sviluppo precoce. Utilizza l'autenticazione basata su IAM per i carichi di lavoro di produzione e gli ambienti gestiti da OCI.

Prima di iniziare

Prima di chiamare l'API delle risposte:

  • Crea un progetto OCI Generative AI. Le chiamate API compatibili con OCI OpenAI richiedono un progetto.
  • Impostare il client con l'URL di base compatibile con OCI OpenAI.
  • Impostare l'autenticazione.
  • Utilizzare un modello supportato in un'area supportata.

Per i passi di impostazione, vedere Avvio rapido, Autenticazione e Modelli e aree supportati.

Per chiamare l'API Risposte dal codice, si consiglia di utilizzare OpenAI SDK. Vedere QuickStart.

Crea la tua prima risposta

L'esempio riportato di seguito utilizza OpenAI SDK con l'endpoint compatibile con OCI OpenAI, una chiave API OCI Generative AI e un OCID progetto.

from openai import OpenAI

client = OpenAI(
    base_url="https://inference.generativeai.us-chicago-1.oci.oraclecloud.com/openai/v1",
    api_key="sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx",
    project="ocid1.generativeaiproject.oc1.us-chicago-1.xxxxxxxx",
)

response = client.responses.create(
    model="<supported-model-id>",
    input="Write a one-sentence explanation of what a database is."
)

print(response.output_text)

In questo esempio:

  • base_url punta all'endpoint OCI compatibile con OpenAI.
  • client.responses.create(...) chiama l'API OCI Responses.
  • project identifica il progetto OCI Generative AI per la richiesta.

Usa memoria agente con API risposte

Per consentire a OCI di gestire la cronologia delle conversazioni in più turni, creare prima una conversazione:

conversation = client.conversations.create()

Includere quindi l'ID conversazione nella richiesta API Risposte:


response = client.responses.create(
  model="<supported-model-id>",
  input=[
        {
            "role": "user",
            "content": "Recommend a restaurant based on the food I like."
        }
    ],
    conversation=conversation.id,
)

Utilizzare questo pattern quando si desidera che OCI gestisca lo stato della conversazione tra le richieste.

Per ulteriori informazioni sulle funzionalità di memoria, vedere Conversations API, Short-Term Memory, Long-Term Memory e Short-Term Memory Compaction.

Utilizzare gli strumenti con l'API Risposte

L'API Responses supporta i workflow abilitati per gli strumenti tramite la proprietà tools. Per molti casi d'uso, puoi dichiarare gli strumenti nella richiesta e lasciare che OCI Generative AI coordini l'esecuzione del modello e l'uso degli strumenti.

Il supporto degli strumenti è disponibile solo tramite l'API.

Tipi di strumenti supportati

OCI Generative AI supporta i seguenti tipi di strumenti con l'API Risposte:

Strumento tools[].type Descrizione
Ricerca file "file_search" Consente alla ricerca modello di caricare i file e il contenuto della memoria di vettore per le risposte basate sul recupero.
Interprete codice "code_interpreter" Consente al modello di eseguire il codice in un ambiente sandbox gestito da OCI.
Chiamata funzione "function" Consente all'utente di definire le funzioni locali e fare in modo che l'applicazione esegua le funzioni e restituisca i risultati al modello.
Chiamata MCP "mcp" Consente al modello di accedere ai metodi esposti da un server MCP remoto.

Per i passi di impostazione e gli esempi, selezionare il collegamento per ogni strumento nella tabella.

Nota

OpenAI documenta altri tipi di strumenti, ma OCI Generative AI supporta solo i tipi di strumenti elencati qui per l'API Risposte. Altre funzionalità OCI, come NL2SQL, vengono documentate separatamente e non vengono configurate tramite il campo tools dell'API Responses.

Esempio: chiamata MCP

L'esempio riportato di seguito definisce uno strumento MCP nella richiesta.

response = client.responses.create(
    model="openai.gpt-oss-120b",
    tools=[
        {
            "type": "mcp",
            "server_url": "https://example.com/mcp",
        }
    ],
    input="What events are scheduled for 2026-04-02?"
)

In questo esempio, l'API Responses richiama il modello e passa la definizione dello strumento MCP come parte della stessa richiesta. Non è necessaria un'API separata specifica per MCP.

Quando utilizzare l'API di base

È possibile utilizzare gli elementi di base dell'agente di basso livello con l'API Risposte quando il flusso di lavoro richiede il controllo diretto su file, vector store o container.

Gli esempi comuni includono:

  • Caricamento dei file prima di inviare una richiesta modello
  • Gestione diretta dei contenuti della memoria di vettore
  • Riutilizzo di file o risorse in più richieste
  • Utilizzo dei container sandbox come parte di un flusso di lavoro più ampio

La seguente API viene comunemente utilizzata con l'API Risposte:

API Percorso endpoint Uso tipico con l'API Risposte
API File /files Caricare e gestire i file a cui si fa riferimento in un secondo momento in una richiesta di risposta.
API Negozi vettoriali /vector_stores/... Gestisce i contenuti della memoria di vettore utilizzati per i flussi di lavoro di recupero, ad esempio Ricerca file.
API container /containers e /containers/{id}/files Gestisce le risorse sandbox utilizzate nei flussi di lavoro abilitati per gli strumenti.

Esempio: caricare prima un file, quindi utilizzarlo nell'API Risposte

Prima caricare un file:

file_response = client.files.create(
    file=open("example-document.pdf", "rb"),
    purpose="assistants"
)

file_id = file_response.id

Fare quindi riferimento al file caricato nella richiesta API Risposte:

response = client.responses.create(
    model="<model-id>",
    input=[
        {
            "role": "user",
            "content": [
                { "type": "input_file", "file_id": file_id },
                { "type": "input_text", "text": "List all the cities mentioned in this document." }
            ]
        }
    ]
)

In questo esempio, l'API File e l'API Risposte funzionano insieme in un unico workflow.

SDK e framework

È possibile utilizzare l'API Risposte OCI con OpenAI SDK. È inoltre possibile utilizzarlo con framework agente lato client compatibili.

OpenAI SDK supporta i seguenti linguaggi:

  • Python
  • Java
  • TypeScript
  • Esegui
  • .NET

Più supporto linguistico è disponibile attraverso le biblioteche della comunità.

I framework degli agenti compatibili includono:

  • SDK OpenAI Agents (consigliato)
  • SDK Codex OpenAI
  • Framework agente Microsoft
  • LangChain
  • Grafo lingua
  • CrewAI
  • Generazione automatica
  • Indice Lama
  • Pidantico

API Risposte OCI e API Risposte OpenAI

Funzione API Risposte OCI API risposte OpenAI
Scelta modello Supporta modelli ospitati su OCI e modelli non OpenAI Solo modelli OpenAI
Infrastruttura di servizio modello Infrastruttura condivisa OCI o cluster AI dedicati Infrastruttura condivisa OpenAI
Autenticazione Chiavi IAM o API OCI Chiavi API
Conservazione dati I dati rimangono in OCI I dati vengono memorizzati in OpenAI
Networking privato Supporta l'integrazione della VCN OCI e gli endpoint privati Non disponibile
Modello endpoint Endpoint regionali Endpoint globale