モデル・デプロイメントの呼出し
モデル・デプロイメントを起動すると、特徴ベクトルまたはデータ・サンプルを推論エンドポイントに渡すことができ、モデルではそれらのデータ・サンプルの予測が返されます。
モデル・デプロイメントがアクティブな
lifecycleState
に入ると、推論エンドポイントはクライアントによって行われたリクエストを正常に受信できます。サービスでサポートされるエンドポイントは次のとおりです。レスポンス・タイプ | エンドポイント | 説明 |
---|---|---|
単一 | /predict |
単一のレスポンスを返します。 |
ストリーミング | /predictWithResponseStream |
モデルによって生成された部分結果のリアルタイム・ストリーミングを返します。 |
モデル・デプロイメントの詳細ページで、「モデルの起動」を選択すると、「ストリーミングなし」と「ストリーミング」の2つのメイン・カテゴリを含むパネルが表示されます。
各カテゴリには、次の詳細が表示されます:
- モデルHTTPエンドポイント。プライベート・モデル・デプロイメントの場合、HTTPエンドポイントには、プライベート・エンドポイントの作成中に設定されたプライベートFQDNが含まれます。詳細は、プライベート・エンドポイントの作成を参照してください。
- OCI CLIを使用してモデル・エンドポイントを呼び出すサンプル・コード。または、OCI PythonおよびJava SDKを使用して、提供されているコード・サンプルでモデルを起動します。
サンプル・コードを使用して、モデル・デプロイメントを呼び出します。
モデル・デプロイメントを呼び出すと、モデル・デプロイメントURIの推論エンドポイントがコールします。このエンドポイントは、サンプル・データを入力引数とし、score.py
モデル・アーティファクト・ファイルのpredict()
関数を使用して処理されます。サンプル・データは、JSON形式ですが、他の形式でもできます。処理とは、サンプル・データを変換して、モデルの推論メソッドに渡すことです。モデルは、クライアントに返す前に処理できる予測を生成できます。