Chamando uma Implantação de Modelo

Chamar uma implantação de modelo significa que você pode transmitir vetores de recurso ou amostras dos dados ao ponto final da inferência e, em seguida, o modelo retorna previsões para essas amostras dos dados.

Depois que uma implantação de modelo fica em um lifecycleState ativo, o ponto final de inferência pode receber com sucesso solicitações feitas pelos clientes. Os pontos finais suportados pelo serviço são os seguintes:
Tipos de Resposta
Tipo de Resposta Ponto Final Descrição
Única /predict Retorna uma única resposta.
Streaming /predictWithResponseStream Retorna streaming em tempo real de resultados parciais à medida que são gerados pelo modelo.

Em uma página de detalhes da implantação de modelo, selecione Chamando Seu Modelo para ver um painel com duas categorias principais: Não Streaming e Streaming.

Cada categoria exibe os seguintes detalhes:

  • O ponto final HTTP do modelo Para uma implantação de modelo privado, o ponto final HTTP contém um FQDN privado que foi definido ao criar o ponto final privado. Para obter mais informações, consulte Criando um Ponto Final Privado.
  • Código de amostra para chamar o ponto final do modelo usando a CLI do OCI. Ou use o OCI Python e os SDKs Java para chamar o modelo com a amostra de código fornecida.

Use o código de amostra para chamar uma implantação de modelo.

Chamar uma implantação do modelo chama o ponto final de inferência do URI da implantação do modelo. Esse ponto final usa dados de amostra como entrada e é processado usando a função predict() no arquivo de artefato de modelo score.py. Os dados de amostra estão no formato JSON, embora possam estar em outros formatos. O processamento significa que os dados de amostra podem ser transformados e transmitidos para um método de inferência de modelos. Os modelos podem gerar previsões que podem ser processadas antes de serem retornadas ao cliente.