API-Tools für Antworten
OCI Generative AI unterstützt Tools mit der Responses-API, sodass unterstützte Modelle integrierte Tools bei der Antwortgenerierung verwenden können. Fügen Sie Tooldefinitionen in der Eigenschaft tools einer Responses-API-Anforderung hinzu, damit das Modell relevanten Inhalt aus den Daten abrufen, Python-Code ausführen, anwendungsdefinierte Funktionen aufrufen oder Tools verwenden kann, die von einem Remote-MCP-Server bereitgestellt werden.
tool_choice steuern.tools ein:response = client.responses.create(
model="openai.gpt-oss-120b",
tools=[
{
"type": "file_search",
"vector_store_ids": ["<vector_store_id>"]
}
],
input="Summarize the main ideas in these documents."
)- Dateisuche
Verwenden Sie die Dateisuche, damit das Modell während der Antwortgenerierung relevanten Inhalt aus einem Vektorspeicher abrufen kann. Dies ist nützlich, wenn Sie das Modell beantworten möchten, indem Sie Ihre Dokumente verwenden, anstatt sich nur auf integriertes Wissen zu verlassen.
- Code-Interpreter
Mit Code Interpreter kann das Modell Python-Code in einer OCI-verwalteten Sandbox schreiben und ausführen. Dies ist nützlich für Berechnungen, Datenanalysen, Dateiverarbeitung und andere rechenintensive Aufgaben.
- Funktionsaufrufe
Verwenden Sie den Funktionsaufruf, wenn Ihre Anwendung die Toollogik definiert und ausführt. Das Modell gibt den Funktionsnamen und die Argumente zurück, Ihre Anwendung führt die Funktion aus, und dann sendet Ihre Anwendung die Funktionsausgabe zurück, damit der Workflow fortgesetzt werden kann.
- MCP - Aufruf
Verwenden Sie MCP Calling, um OCI Generative AI-Aufruftools zuzulassen, die direkt während der Anforderung auf einem Remote-MCP-Server gehostet werden. Dadurch wird die clientseitige Orchestrierung reduziert, da die Plattform mit dem MCP-Server kommuniziert, ohne dass eine zusätzliche Anwendungs-Roundtrip erforderlich ist.