Catálogo de Modelos
Saiba como trabalhar com o catálogo de modelos do serviço Data Science.
Catálogo de Modelos
O catálogo de modelos é um repositório centralizado e gerenciado de artefatos de modelo. Os modelos armazenados no catálogo de modelos podem ser compartilhados entre membros de uma equipe e podem ser carregados de volta para uma sessão de notebook. Por exemplo, os modelos do catálogo também podem ser implantados como pontos finais HTTP usando uma implantação de modelo.
Uma entrada de modelo no catálogo tem dois componentes:
-
Um artefato de modelo é um arquivo compactado zip que inclui o objeto de modelo salvo. Um script Python que fornece instruções sobre como usar o modelo para fins de inferência (
score.py
) e um arquivo que documenta o ambiente de runtime do modelo (runtime.yaml
). Você pode obter os exemplos de artefatoscore.py
eruntime.yaml
do Github. -
Metadados sobre a proveniência do modelo, incluindo informações relacionadas ao Git e o script ou notebook usado para enviar o modelo para o catálogo. Você pode documentar o recurso no qual o modelo foi treinado (uma sessão de notebook ou execução de job) e a referência do Git ao código de origem de treinamento. Esses metadados serão extraídos automaticamente do ambiente de sessão de notebook se você salvar seu artefato de modelo com o ADS.
Os artefatos de modelo armazenados no catálogo de modelos são imutáveis por design. Todas as alterações que deseja aplicar a um modelo exigem que um novo modelo seja criado. A imutabilidade impede alterações indesejadas e garante que qualquer modelo na produção possa ser rastreado até o artefato exato por trás das previsões de modelo.
Os artefatos têm um limite de tamanho máximo de 100 MB quando salvos na Console. O limite de tamanho foi removido do ADS, dos SDKs do OCI e da CLI. Modelos grandes têm limitações de artefatos de até 400 GB.
Documentando Modelos
Você pode usar essas opções para documentar como treinou o modelo, o caso de uso e os recursos de previsão necessários.
O ADS preenche automaticamente a proveniência e a taxonomia em seu nome quando você salva um modelo com o ADS.
- Proveniência
-
A Proveniência de modelo é uma documentação que ajuda a melhorar a capacidade de reprodução e auditoria de modelo. Você pode documentar o recurso no qual o modelo foi treinado (uma sessão de notebook ou execução de job) e a referência do Git ao código de origem de treinamento. Esses parâmetros são extraídos automaticamente quando você salva um modelo com o ADS SDK.
Quando você está trabalhando dentro de um repositório Git, o ADS pode obter informações do Git e preencher os campos de metadados de proveniência do modelo automaticamente para você.
- Taxonomia
-
A Taxonomia permite descrever o modelo que você está salvando no catálogo de modelos. Você pode usar campos predefinidos para documentar:
-
Caso de uso de aprendizagem de máquina
-
Framework de modelo de aprendizado de máquina
-
Versão
-
Objeto estimador
-
Hiperparâmetros
-
Resultados do teste de artefato
Ou crie metadados personalizados.
-
- Testes de Introspecção de Modelo
-
A introspecção no contexto de modelos de aprendizado de máquina é uma série de testes e verificações executados em um artefato de modelo para testar todos os aspectos da integridade operacional do modelo. Esses testes direcionam
score.py
eruntime.yaml
com o objetivo de capturar alguns erros e problemas comuns do artefato de modelo. Os resultados dos testes de introspecção fazem parte dos metadados do modelo predefinido. Se salvar seu modelo usando a Console, você poderá armazenar os resultados de teste no formato JSON no campo Resultados de Teste de Artefato quando selecionar Documentar taxonomia de modelo. Se você decidir salvar o modelo usando o OCI Python SDK, use a chave de metadadosArtifactTestResults
.Como parte do nosso modelo de artefato de modelo, incluímos um script Python que contém uma série de definições de teste de introspecção. Esses testes são opcionais e você pode executá-los antes de salvar o modelo no catálogo de modelos. Em seguida, você pode salvar os resultados do teste como parte dos metadados do modelo a serem exibidos na Console do OCI.
Nosso blog do serviço Data Science contém mais informações sobre como usar introspecção de modelo.
- Esquemas de Entrada e Saída de Modelo
-
A definição de esquema é uma descrição dos recursos necessários para fazer uma previsão de modelo bem-sucedida. A definição de esquema é um contrato que define o payload de entrada obrigatório que os clientes do modelo devem fornecer. As definições de esquema de entrada e saída são usadas apenas para fins de documentação nesta versão do catálogo de modelos. Os esquemas estão no formato de arquivo JSON.
Talvez você queira definir os dois esquemas. No mínimo, um esquema de entrada é necessário para qualquer previsão de modelo.
O esquema de saída pode nem sempre ser necessário. Por exemplo, quando o modelo está retornando um valor de ponto flutuante simples, não há tanto valor na definição de um esquema para essa saída simples. Você pode transmitir essas informações na descrição do modelo.