19 Machine Learning (anteprima)

Oracle AI Data Platform Workbench fornisce la gestione del ciclo di vita del machine learning (ML) utilizzando concetti e API MLflow, in particolare esperimenti, esecuzioni e un registro di modelli.

Queste funzionalità sono profondamente integrate in AI Data Platform Workbench su più superfici, tra cui aree di lavoro, esperimenti e cataloghi, in modo che i team possano monitorare il lavoro dove avviene e promuovere i risultati in asset condivisi e governati.

Ciclo di vita ML

I cicli di vita ML end-to-end in genere seguono questi passaggi:
  1. Preparazione dati: pulire e formattare gli input raw
  2. Exploratory Data Analysis (EDA): esplora i dati per trovare i pattern
  3. Progettazione delle funzioni: creare variabili per i modelli
  4. Sperimento: addestra in modo iterativo utilizzando più approcci (ogni iterazione è a ⁇ run)
  5. Convalida e memorizza: identifica l'esecuzione migliore e registra il modello per il riutilizzo
  6. Esegui inferenze: utilizzare una versione del modello registrata per l'inferenza batch dai notebook
  7. Monitoraggio: Monitora le prestazioni e la disponibilità di produzione di base per i modelli distribuiti

Funzionalità di base

Monitoraggio degli esperimenti per area di lavoro del team

  • Gli esperimenti sono mirati ad a ⁇ workspace ⁇ per separare i team e organizzare il lavoro.
  • Il log automatico compatibile con MLflow acquisisce parametri, metriche e artifact ⁇ per ogni esecuzione, creando un record riproducibile che supporta le repliche con modifiche controllate.

Esegui confronto e registrazione

  • Le esecuzioni possono essere filtrate e confrontate per identificare un modello candidato.
  • Un'esecuzione può essere registrata nel registro modelli supportato dal catalogo principale, con controllo delle versioni, tag e campi personalizzati. La gestione delle versioni viene gestita dalla piattaforma quando vengono registrati i modelli aggiornati.

Da inferenza registro a notebook

  • I modelli possono essere caricati nei notebook con la versione più recente o esplicita, consentendo un riutilizzo coerente.
  • I flussi di lavoro di inferenza batch possono fare riferimento direttamente alle versioni del registro, riducendo la gestione manuale tra sperimentazione e inferenza.

Derivazione per verificabilità

  • I modelli registrati fanno riferimento all'esecuzione dell'esperimento di origine, incluse le condizioni di esecuzione quali iperparametri, variabili di ambiente, metriche e artifact.
  • Ciò supporta la revisione e l'audit rendendo esplicita la provenienza di ciascun modello.

Perché utilizzare MLflow?

AI Data Platform Workbench utilizza MLflow come base per il proprio framework MLOps perché fornisce un approccio aperto, estendibile e indipendente dal framework alla gestione del ciclo di vita del machine learning end-to-end.

MLflow supporta le funzionalità di base necessarie per rendere operativo il machine learning su larga scala, tra cui il monitoraggio degli esperimenti, l'imballaggio dei modelli, la gestione degli artifact, il controllo delle versioni dei modelli, basato sul registro e la governance. La sua capacità di acquisire parametri, metriche, artifact ed eseguire metadati in modo coerente lo rende adatto per migliorare la riproducibilità, la verificabilità e la collaborazione tra i team di data science e ingegneria.

Una ragione chiave per selezionare MLflow è la sua ampia compatibilità con i framework di machine learning più diffusi come TensorFlow, PyTorch e scikit-learn. Ciò consente ad AI Data Platform Workbench di supportare diversi modelli di sviluppo dei modelli senza forzare i team in un unico framework o toolchain. L'architettura dei plugin di MLflow e la flessibilità di implementazione semplificano anche l'estensione della piattaforma e l'integrazione con l'infrastruttura aziendale esistente.

Standardizzando su MLflow, AI Data Platform Workbench può fornire un'esperienza MLOps coerente attraverso la sperimentazione, la registrazione dei modelli, la gestione del ciclo di vita, mantenendo al contempo la flessibilità necessaria per evolversi con diversi casi d'uso AI/ML.