19 Maschinelles Lernen (Vorschau)

Oracle AI Data Platform Workbench bietet ML-(Machine Learning-)Lebenszyklusmanagement mithilfe von MLflow-Konzepten und APIs, insbesondere Experimenten, Ausführungen und einer Modellregistrierung.

Diese Funktionen sind tief in die AI Data Platform Workbench auf mehreren Oberflächen integriert, einschließlich Workspaces, Experiments und Catalog, sodass Teams die Arbeit dort verfolgen können, wo sie stattfindet, und Ergebnisse in gemeinsam genutzten, verwalteten Assets fördern können.

ML-Lebenszyklus

End-to-End-ML-Lebenszyklen führen in der Regel folgende Schritte aus:
  1. Datenvorbereitung: Raw-Eingaben bereinigen und formatieren
  2. Explorative Datenanalyse (EDA): Daten untersuchen, um Muster zu finden
  3. Feature Engineering: Variablen für Modelle erstellen
  4. Experiment: Iteratives Training mit mehreren Ansätzen (jede Iteration ist ein ⁇ run)
  5. Validieren und speichern: Bestimmen Sie die beste Ausführung, und registrieren Sie das Modell für die Wiederverwendung
  6. Inferenzen ausführen: Registrierte Modellversion für Batchinferenz aus Notizbüchern verwenden
  7. Überwachen: Verfolgen Sie die grundlegende Produktionsleistung und -verfügbarkeit für bereitgestellte Modelle

Kernfunktionen

Experimentverfolgung pro Teamarbeitsbereich

  • Experimente sind auf einen Arbeitsraum ausgerichtet, um Teams zu trennen und Arbeit zu organisieren.
  • MLflow-kompatibles Autologging erfasst Parameter, Metriken und Artefakte für jede Ausführung und erstellt einen reproduzierbaren Datensatz, der Wiederholungen mit kontrollierten Änderungen unterstützt.

Vergleich und Registrierung ausführen

  • Ausführungen können gefiltert und verglichen werden, um ein Kandidatenmodell zu identifizieren.
  • Eine Ausführung kann in der Master Catalog-Backed Model Registry registriert werden und Versionierung, Tags und benutzerdefinierte Felder enthalten. Die Versionsverwaltung wird von der Plattform verwaltet, wenn aktualisierte Modelle registriert werden.

Von der Registrierung zur Notizbuchinferenz

  • Modelle können nach der neuesten oder expliziten Version in Notizbüchern geladen werden, um eine konsistente Wiederverwendung zu ermöglichen.
  • Batch-Inferenzworkflows können Registry-Versionen direkt referenzieren, wodurch die manuelle Handhabung zwischen Experimentieren und Inferenz reduziert wird.

Herkunft für Auditierbarkeit

  • Registrierte Modelle verweisen zurück auf die ursprüngliche Experimentausführung, einschließlich Ausführungsbedingungen wie Hyperparameter, Umgebungsvariablen, Metriken und Artefakte.
  • Dies unterstützt die Überprüfung und Prüfung, indem die Herkunft jedes Modells explizit gemacht wird.

Warum MLflow verwenden?

AI Data Platform Workbench verwendet MLflow als Grundlage für sein MLOps-Framework, da es einen offenen, erweiterbaren und Framework-agnostischen Ansatz zur Verwaltung des End-to-End-Lebenszyklus des maschinellen Lernens bietet.

MLflow unterstützt die Kernfunktionen, die für die Skalierung von maschinellem Lernen erforderlich sind, einschließlich Experimentverfolgung, Modellverpackung, Artefaktverwaltung, Modellversionierung, Registry-basiert und Governance. Die Fähigkeit, Parameter, Metriken, Artefakte zu erfassen und Metadaten konsistent auszuführen, eignet sich hervorragend zur Verbesserung der Reproduzierbarkeit, Auditierbarkeit und Zusammenarbeit zwischen Data Science- und Engineering-Teams.

Ein wichtiger Grund für die Auswahl von MLflow ist die breite Kompatibilität mit gängigen Frameworks für maschinelles Lernen wie TensorFlow, PyTorch und scikit-learn. Auf diese Weise kann AI Data Platform Workbench verschiedene Modellentwicklungsmuster unterstützen, ohne Teams zu einem einzigen Framework oder einer einzigen Toolkette zu zwingen. Die Plug-in-Architektur und Bereitstellungsflexibilität von MLflow erleichtern auch die Erweiterung der Plattform und die Integration in die vorhandene Unternehmensinfrastruktur.

Durch die Standardisierung auf MLflow kann die AI Data Platform Workbench eine konsistente MLOps-Erfahrung für Experimente, Modellregistrierung und Lebenszyklusmanagement bieten und gleichzeitig die erforderliche Flexibilität für die Entwicklung mit verschiedenen KI/ML-Anwendungsfällen beibehalten.