API Risposte OCI

L'API Risposte OCI è l'API OCI nativa per flussi di lavoro agenti.

Informazioni sull'API Risposte OCI

L'API OCI Responses ti consente di comporre primitive modulari per supportare carichi di lavoro agenti. È possibile configurare queste funzionalità a livello di richiesta:

  • Orchestrazione per eseguire inferenza a passo singolo o flussi di lavoro agenti a più fasi
  • Motivo per abilitare o disabilitare il ragionamento
  • Strumenti per utilizzare strumenti gestiti dalla piattaforma, strumenti di funzione lato client o entrambi
  • Stato della conversazione per gestire lo stato sul lato servizio o nell'applicazione client

Questo approccio prevede:

  • Flessibilità per creare assistenti semplici o agenti a più fasi più complessi utilizzando la stessa API
  • Precisione per controllare costi, latenza e comportamento
  • Semplicità perché non è necessario creare e gestire strumenti come risorse cloud separate

URL di base

Utilizzare l'API Risposte OCI nel seguente URL di base:

https://inference.generativeai.<available-region>.oci.oraclecloud.com/openai/v1

Sostituire <available-region> con un identificativo di area, ad esempio generativeai.us-chicago-1.

Per le aree disponibili, vedere Aree disponibili API autentiche.

SDK e framework supportati

È possibile utilizzare l'API Risposte OCI con l'OpenAI SDK. È inoltre possibile utilizzarlo con framework agente lato client compatibili.

Il kit SDK OpenAI supporta le seguenti lingue:

  • Python
  • Java
  • TypeScript
  • Esegui
  • .NET

Più supporto linguistico è disponibile attraverso le biblioteche della comunità.

I framework degli agenti compatibili includono:

  • OpenAI Agenti SDK (consigliato)
  • SDK Codex OpenAI
  • Framework agente Microsoft
  • LangChain
  • LangGraph
  • CrewAI
  • AutoGen
  • LlamaIndex
  • Pidantico

Confronta API risposte OCI e completamenti chat

Dimensione API Risposte OCI API chat OCI mediante API completamenti chat
Uso principale API unificata per l'interazione dei modelli e funzionalità agentic API per l'interazione del modello
Adeguamento ideale Chat interattiva, carichi di lavoro lenti e attività a lungo termine Chatbot interattivi e completamento del testo
Orchestrazione Ragionamento integrato in più fasi e chiamate multiple agli strumenti Inferenza o generazione a passo singolo; i flussi in più fasi richiedono l'orchestrazione esterna
Gestione del contesto Con conservazione dello stato per impostazione predefinita, con utilizzo facoltativo senza conservazione dello stato Solo senza conservazione dello stato; il client gestisce la cronologia delle conversazioni
Supporto strumenti Strumenti integrati come ricerca di file, interprete di codice e MCP remoto Limitato agli strumenti lato client tramite chiamata di funzione
Supporto multimodale Supporto nativo per testo, immagini, file e blocchi di contenuti strutturati Principalmente testo, con supporto multimodale limitato a seconda della versione del modello
Streaming Streaming basato su eventi con eventi dettagliati Streaming basato su token
Output strutturato Output strutturati nativi e applicazione dello schema JSON La modalità JSON è supportata, ma è meno compostabile
Integrazione di file e vettori Integrazione diretta con API Files e API Vector Stores Richiede un'orchestrazione separata
Estendibilità Progettato per agenti ospitati, strumenti MCP, memoria e container Progettato principalmente per le applicazioni di chat

Confronta l'API delle risposte OCI e l'API delle risposte OpenAI

Funzionalità API Risposte OCI API risposte OpenAI
Scelta modello Supporta modelli ospitati su OCI e modelli non OpenAI Solo modelli OpenAI
Infrastruttura di servizio modello Infrastruttura condivisa OCI o cluster AI dedicati OpenAI infrastruttura condivisa
Autenticazione Chiavi IAM o API OCI Chiavi API
Conservazione dati I tuoi dati rimangono in OCI I tuoi dati sono memorizzati in OpenAI
Networking privato Supporta l'integrazione della VCN OCI e gli endpoint privati Non disponibile
Modello endpoint Endpoint regionali Endpoint globale

Suggerimenti

Utilizzare l'SDK OpenAI quando:

  • Non è necessario un framework lato client per orchestrare gli strumenti di funzione
  • Gli strumenti vengono eseguiti sul lato server, inclusi gli strumenti MCP remoti
  • Utilizzare l'API Conversazioni per gestire la memoria della sessione
  • L'applicazione è un'interfaccia più semplice, ad esempio un'applicazione mobile o un sito statico, senza un backend complesso

Utilizzare una struttura agente con SDK OpenAI quando:

  • È necessario orchestrare gli strumenti di funzione lato client
  • Sono necessarie funzionalità di esecuzione lato client quali shell locale o accesso al file system
  • È necessario coordinare più agenti sul lato client
  • Puoi gestire la memoria di sessione utilizzando la tua soluzione o un sistema di terze parti