API Risposte OCI
L'API Risposte OCI è l'API OCI nativa per flussi di lavoro agenti.
Installazione
Python
Installare il pacchetto Python di autenticazione GenAI OCI:
pip install oci-genai-authVedere Pacchetto di autenticazione OCI GenAI su GitHub.
Java
Vedere OCI GenAI Auth Java SDK su GitHub .
Informazioni sull'API Risposte OCI
L'API OCI Responses ti consente di comporre primitive modulari per supportare carichi di lavoro agenti. È possibile configurare queste funzionalità a livello di richiesta:
- Orchestrazione per eseguire inferenza a passo singolo o flussi di lavoro agenti a più fasi
- Motivo per abilitare o disabilitare il ragionamento
- Strumenti per utilizzare strumenti gestiti dalla piattaforma, strumenti di funzione lato client o entrambi
- Stato della conversazione per gestire lo stato sul lato servizio o nell'applicazione client
Questo approccio prevede:
- Flessibilità per creare assistenti semplici o agenti a più fasi più complessi utilizzando la stessa API
- Precisione per controllare costi, latenza e comportamento
- Semplicità perché non è necessario creare e gestire strumenti come risorse cloud separate
URL di base
Utilizzare l'API Risposte OCI nel seguente URL di base:
https://inference.generativeai.<available-region>.oci.oraclecloud.com/openai/v1Sostituire <available-region> con un identificativo di area, ad esempio generativeai.us-chicago-1.
Per le aree disponibili, vedere Aree disponibili API autentiche.
SDK e framework supportati
È possibile utilizzare l'API Risposte OCI con l'OpenAI SDK. È inoltre possibile utilizzarlo con framework agente lato client compatibili.
Il kit SDK OpenAI supporta le seguenti lingue:
- Python
- Java
- TypeScript
- Esegui
- .NET
Più supporto linguistico è disponibile attraverso le biblioteche della comunità.
I framework degli agenti compatibili includono:
- OpenAI Agenti SDK (consigliato)
- SDK Codex OpenAI
- Framework agente Microsoft
- LangChain
- LangGraph
- CrewAI
- AutoGen
- LlamaIndex
- Pidantico
Confronta API risposte OCI e completamenti chat
| Dimensione | API Risposte OCI | API chat OCI mediante API completamenti chat |
|---|---|---|
| Uso principale | API unificata per l'interazione dei modelli e funzionalità agentic | API per l'interazione del modello |
| Adeguamento ideale | Chat interattiva, carichi di lavoro lenti e attività a lungo termine | Chatbot interattivi e completamento del testo |
| Orchestrazione | Ragionamento integrato in più fasi e chiamate multiple agli strumenti | Inferenza o generazione a passo singolo; i flussi in più fasi richiedono l'orchestrazione esterna |
| Gestione del contesto | Con conservazione dello stato per impostazione predefinita, con utilizzo facoltativo senza conservazione dello stato | Solo senza conservazione dello stato; il client gestisce la cronologia delle conversazioni |
| Supporto strumenti | Strumenti integrati come ricerca di file, interprete di codice e MCP remoto | Limitato agli strumenti lato client tramite chiamata di funzione |
| Supporto multimodale | Supporto nativo per testo, immagini, file e blocchi di contenuti strutturati | Principalmente testo, con supporto multimodale limitato a seconda della versione del modello |
| Streaming | Streaming basato su eventi con eventi dettagliati | Streaming basato su token |
| Output strutturato | Output strutturati nativi e applicazione dello schema JSON | La modalità JSON è supportata, ma è meno compostabile |
| Integrazione di file e vettori | Integrazione diretta con API Files e API Vector Stores | Richiede un'orchestrazione separata |
| Estendibilità | Progettato per agenti ospitati, strumenti MCP, memoria e container | Progettato principalmente per le applicazioni di chat |
Confronta l'API delle risposte OCI e l'API delle risposte OpenAI
| Funzionalità | API Risposte OCI | API risposte OpenAI |
|---|---|---|
| Scelta modello | Supporta modelli ospitati su OCI e modelli non OpenAI | Solo modelli OpenAI |
| Infrastruttura di servizio modello | Infrastruttura condivisa OCI o cluster AI dedicati | OpenAI infrastruttura condivisa |
| Autenticazione | Chiavi IAM o API OCI | Chiavi API |
| Conservazione dati | I tuoi dati rimangono in OCI | I tuoi dati sono memorizzati in OpenAI |
| Networking privato | Supporta l'integrazione della VCN OCI e gli endpoint privati | Non disponibile |
| Modello endpoint | Endpoint regionali | Endpoint globale |
Suggerimenti
Utilizzare l'SDK OpenAI quando:
- Non è necessario un framework lato client per orchestrare gli strumenti di funzione
- Gli strumenti vengono eseguiti sul lato server, inclusi gli strumenti MCP remoti
- Utilizzare l'API Conversazioni per gestire la memoria della sessione
- L'applicazione è un'interfaccia più semplice, ad esempio un'applicazione mobile o un sito statico, senza un backend complesso
Utilizzare una struttura agente con SDK OpenAI quando:
- È necessario orchestrare gli strumenti di funzione lato client
- Sono necessarie funzionalità di esecuzione lato client quali shell locale o accesso al file system
- È necessario coordinare più agenti sul lato client
- Puoi gestire la memoria di sessione utilizzando la tua soluzione o un sistema di terze parti