19 Machine Learning (Visualização)

O Oracle AI Data Platform Workbench fornece gerenciamento do ciclo de vida de machine learning (ML) usando conceitos e APIs de MLflow, especificamente experimentos, execuções e um registro de modelo.

Esses recursos são profundamente integrados ao AI Data Platform Workbench em várias superfícies, incluindo Espaços de Trabalho, Experimentos e Catálogo, para que as equipes possam acompanhar o trabalho onde ele acontece e promover resultados em ativos compartilhados e controlados.

Ciclo de Vida do ML

Os ciclos de vida de ML de ponta a ponta geralmente seguem estas etapas:
  1. Preparação de dados: Limpe e formate entradas brutas
  2. Análise exploratória de dados (EDA): Explore dados para encontrar padrões
  3. Engenharia de recursos: crie variáveis para modelos
  4. Experimento: Treine iterativamente usando várias abordagens (cada iteração é a ⁇ run)
  5. Validar e armazenar: Identifique a melhor execução e registre o modelo para reutilização
  6. Executar inferências: Use uma versão de modelo registrada para inferência em batch de notebooks
  7. Monitoramento: Acompanhe o desempenho e a disponibilidade básicos da produção para modelos implantados

Recursos principais

Rastreamento de experiências por espaço de trabalho da equipe

  • As experiências têm como escopo a ⁇ workspace ⁇ para separar equipes e organizar o trabalho.
  • O registro automático compatível com MLflow captura parâmetros, métricas e artefatos para cada execução, criando um registro reproduzível que suporta reexecuções com alterações controladas.

Executar comparação e registro

  • As execuções podem ser filtradas e comparadas para identificar um modelo candidato.
  • Uma execução pode ser registrada no Registro de Modelo com suporte ao Catálogo Mestre, carregando versões, tags e campos personalizados. O gerenciamento de versões é tratado pela plataforma quando os modelos atualizados são registrados.

Do registro à inferência de notebook

  • Os modelos podem ser carregados nos notebooks pela versão mais recente ou explícita, permitindo a reutilização consistente.
  • Fluxos de trabalho de inferência em lote podem referenciar versões de registro diretamente, reduzindo o manuseio manual entre experimentação e inferência.

Linhagem para auditabilidade

  • Os modelos registrados são vinculados de volta à execução do experimento de origem, incluindo condições de execução, como hiperparâmetros, variáveis de ambiente, métricas e artefatos.
  • Isso suporta revisão e auditoria, tornando explícita a proveniência de cada modelo.

Por que usar o MLflow?

O AI Data Platform Workbench usa o MLflow como base para sua estrutura MLOps porque ele fornece uma abordagem aberta, extensível e independente de estrutura para gerenciar o ciclo de vida de machine learning de ponta a ponta.

O MLflow suporta os principais recursos necessários para operacionalizar o machine learning em escala, incluindo rastreamento de experimentos, empacotamento de modelos, gerenciamento de artefatos, controle de versão de modelos, baseado em registro e governança. Sua capacidade de capturar parâmetros, métricas, artefatos e executar metadados de maneira consistente o torna adequado para melhorar a reprodutibilidade, a auditabilidade e a colaboração entre as equipes de ciência de dados e engenharia.

Um dos principais motivos para selecionar o MLflow é sua ampla compatibilidade com frameworks populares de machine learning, como TensorFlow, PyTorch e scikit-learn. Isso permite que o AI Data Platform Workbench ofereça suporte a diversos padrões de desenvolvimento de modelos sem forçar as equipes a uma única estrutura ou cadeia de ferramentas. A arquitetura de plug-in e a flexibilidade de implementação do MLflow também facilitam a extensão da plataforma e a integração com a infraestrutura empresarial existente.

Ao padronizar o MLflow, o AI Data Platform Workbench pode fornecer uma experiência MLOps consistente em experimentação, registro de modelo, gerenciamento do ciclo de vida, mantendo a flexibilidade necessária para evoluir com diferentes casos de uso de IA/ML.