Modell mit der Konsole erstellen und speichern
Erstellen Sie ein Modell in der Konsole, und speichern Sie es direkt im Modellkatalog.
Um ein Modell zu dokumentieren, müssen Sie die Metadaten vorbereiten, bevor Sie es erstellen und speichern.
Diese Aufgabe umfasst die Erstellung eines Modells, das Hinzufügen von Metadaten, die Definition der Trainingsumgebung, die Angabe von Vorhersageschemas und das Speichern des Modells im Modellkatalog.
-
Es wird empfohlen, Modelle stattdessen programmgesteuert mit ADS oder dem OCI-Python-SDK im Modellkatalog zu erstellen und zu speichern.
-
Mit ADS können Sie große Modelle erstellen. Große Modelle haben Artefaktbeschränkungen von bis zu 400 GB.
Wenn Sie ein anderes Modell speichern oder die Konsole verwenden möchten, können Sie ein Modell wie folgt speichern:
-
Erstellen Sie auf der Seite Data Science-Modelle ein ZIP-Archiv für das Modellartefakt auf dem lokalen Rechner, das die
score.py
- undruntime.yaml
-Dateien enthält (sowie alle anderen Dateien, die zum Ausführen des Modells erforderlich sind). Wählen Sie ZIP-Datei mit Beispielartefakt herunterladen aus, um Beispieldateien abzurufen, die Sie ändern können, um das Modellartefakt zu erstellen. Wenn Sie Hilfe bei der Suche nach der Liste der Modelle benötigen, finden Sie weitere Informationen unter Modelle auflisten. - Wählen Sie Modell erstellen aus.
- Wählen Sie das Compartment aus, das das Modell enthalten soll.
- (Optional) Geben Sie einen eindeutigen Namen ein (max. 255 Zeichen). Wenn Sie keinen Namen angeben, wird automatisch ein Name generiert.
Beispiel:
model20200108222435
. - (Optional) Geben Sie eine Beschreibung (max. 400 Zeichen) für das Modell ein.
- Wählen Sie eines der folgenden Optionen aus: Modellartefakt hochladen oder Modell nach Referenz erstellen.
-
Wenn Sie im 6. Schritt die Option Modellartefakt hochladen ausgewählt haben, wählen Sie im Feld Modellartefakt hochladen die Option Auswählen aus, um das Modellartefaktarchiv (eine ZIP-Datei) hochzuladen.
- Ziehen Sie die ZIP-Datei in das Feld Artefaktdatei hochladen, und wählen Sie Hochladen aus.
-
Wenn Sie in Schritt 6 die Option Modell nach Referenz erstellen ausgewählt haben:
- Wählen Sie ein Compartment aus.
- Bucket auswählen.
- (Optional) Geben Sie ein Objektnamenspräfix ein.
- (Optional) Wählen Sie im Feld Modellversionsset die Option Auswählen und dann mit einem vorhandenen Versionsset konfigurieren oder ein neues Set erstellen aus.
- (Optional) Wählen Sie im Feld Modellherkunft die Option Auswählen aus.
- Wählen Sie Notebook-Session oder Joblauf aus, je nachdem, wo Sie die Taxonomiedokumentation speichern möchten.
-
Suchen Sie mit einer der folgenden Optionen nach der Notizbuchsession oder dem Joblauf, mit der das Modell trainiert wurde:
- Projekt auswählen:
-
Wählen Sie den Namen des Projekts aus, das im ausgewählten Compartment verwendet werden soll.
Das ausgewählte Compartment gilt sowohl für das Projekt als auch für die Notizbuchsession oder den Joblauf, und beide müssen sich in demselben Compartment befinden. Andernfalls verwenden Sie stattdessen die OCID-Suche.
Sie können das Compartment sowohl für das Projekt als auch für die Notebook-Session oder den Joblauf ändern.
Der Name des Projekts, das im ausgewählten Compartment verwendet werden soll.
Wählen Sie die Notizbuchsession oder den Joblauf aus, mit der/dem das Modell trainiert wurde.
- OCID-Suche:
-
Wenn sich die Notizbuchsession oder der Joblauf in einem anderen Compartment als das Projekt befindet, geben Sie die Notizbuchsession oder die Joblauf-OCID ein, in der Sie das Modell trainiert haben.
- Wählen Sie die Notizbuchsession oder den Joblauf aus, mit der/dem das Modell trainiert wurde.
- (Optional) Wählen Sie Erweiterte Optionen anzeigen aus, um Git- und Modelltrainingsinformationen zu identifizieren.
Geben Sie einen der folgenden Werte ein, oder wählen Sie sie aus:
- Git-Repository-URL
-
Die URL des Git-Remote-Repositorys.
- Git-Commit
-
Die Commit-ID des Git-Repositorys.
- Git-Verzweigung
-
Name der Verzweigung
- Lokales Modellverzeichnis
-
Der Verzeichnispfad, in dem das Modellartefakt temporär gespeichert wurde. Dies kann beispielsweise ein Pfad in einer Notizbuchsession oder ein lokales Computerverzeichnis sein.
- Modelltrainingsskript
-
Der Name des Python-Skriptes oder der Notizbuchsession, mit dem das Modell trainiert wurde.
Tipp
Sie können auch Metadaten zur Modellherkunft auffüllen, wenn Sie ein Modell mit den OCI-SDKs oder der CLI im Modellkatalog speichern.
- Wählen Sie Auswählen aus.
- (Optional) Wählen Sie im Feld Modelltaxonomie die Option Auswählen aus, um das Modell, das Framework für maschinelles Lernen, die Hyperparameter anzugeben oder benutzerdefinierte Metadaten zum Dokumentieren des Modells zu erstellen.
Wichtig
Die maximal zulässige Größe für alle Modellmetadaten beträgt 32000 Byte. Die Größe ist eine Kombination aus der voreingestellten Modelltaxonomie und den benutzerdefinierten Attributen.
-
Fügen Sie im Abschnitt Modelltaxonomie voreingestellte Labels wie folgt hinzu:
Geben Sie Folgendes ein, bzw. wählen Sie Folgendes aus:
Modelltaxonomie- Anwendungsfall
-
Der zu verwendende ML-Anwendungsfall.
- Modell-Framework
-
Die Python-Library, mit der Sie das Modell trainiert haben.
- Modell-Framework-Version
-
Die Version des Frameworks für maschinelles Lernen. Hier kann frei formulierter Text angegeben werden. Beispiel: Der Wert könnte 2.3 lauten.
- Modellalgorithmus oder Modellschätzerobjekt
-
Der verwendete Algorithmus oder die Modellinstanzklasse. Hier kann frei formulierter Text angegeben werden. Beispiel: Der Wert könnte
sklearn.ensemble.RandomForestRegressor
lauten. - Modellhyperparameter
-
Die Hyperparameter des Modells im JSON-Format.
- Artefakttestergebnisse
-
Die JSON-Ausgabe der Introspektionstestergebnisse auf Clientseite. Diese Tests sind im Boilerplate-Code des Modellartefakts enthalten. Sie können sie optional ausführen, bevor Sie das Modell im Modellkatalog speichern.
Benutzerdefinierte Label/Wert-Attributpaare erstellen- Label
-
Das Schlüssellabel der benutzerdefinierten Metadaten
- Wert
-
Der an den Schlüssel angehängte Wert.
- Kategorie
-
(Optional) Die Kategorie der Metadaten aus vielen Optionen, darunter:
-
Performance
-
training profile
-
training and validation datasets
-
training environment
-
andere
Anhand der Kategorie können Sie benutzerdefinierte Metadaten für die Anzeige in der Konsole gruppieren und filtern. Dies ist nützlich, wenn Sie viele benutzerdefinierte Metadaten verfolgen möchten.
-
- Beschreibung
-
(Optional) Geben Sie eine eindeutige Beschreibung der benutzerdefinierten Metadaten ein.
- (Optional) Fügen Sie ein Artefakt hinzu:
- Wählen Sie den Metadatenfeldnamen aus.
- Wert eingeben.
- (Optional) Geben Sie Suchschlüsselwörter ein, um das Artefakt zu finden.
- Um ein weiteres Artefakt hinzuzufügen, wählen Sie +Add definiertes Attribut aus, und wiederholen Sie die vorherigen Schritte. Sie können diesen Schritt wiederholen, bis Sie 25 Artefakte haben.
Hinweis
Sie können die Artefaktdatei nur hochladen, wenn das Modell erstellt wird. - Wählen Sie Auswählen aus.
-
Fügen Sie im Abschnitt Modelltaxonomie voreingestellte Labels wie folgt hinzu:
- (Optional) Wählen Sie im Feld Eingabe- und Ausgabedatenschema des Modells dokumentieren die Option Auswählen aus, um die Modellvorhersagen zu dokumentieren. Sie definieren Modellvorhersagefeatures, die das Modell für eine erfolgreiche Vorhersage benötigt. Außerdem definieren Sie Eingabe- und Ausgabeschemas, die die vom Modell zurückgegebenen Vorhersagen beschreiben (in der Datei
score.py
mit der Funktionpredict()
definiert).Wichtig
Die maximal zulässige Dateigröße für die Kombination aus Ein- und Ausgabeschemas beträgt 32000 Byte.
- Ziehen Sie die JSON-Eingabeschemadatei in das Feld Eingabeschema hochladen.
- Ziehen Sie die JSON-Datei für das Ausgabeschema in das Feld Ausgabeschema hochladen.
- Wählen Sie Auswählen aus.
Wichtig
Sie können die Eingabe- und Ausgabendatenschemas nur beim Erstellen des Modells dokumentieren. Sie können die Schemas nach der Modellerstellung nicht bearbeiten.
- (Optional) Wählen Sie Erweiterte Optionen anzeigen, um Tags hinzuzufügen.
- (Optional) Fügen Sie im Abschnitt Tags dem <resourceType> mindestens ein Tag hinzu. Wenn Sie über Berechtigungen zum Erstellen einer Ressource verfügen, sind Sie auch berechtigt, Freiformtags auf diese Ressource anzuwenden. Um ein definiertes Tag anzuwenden, müssen Sie über die Berechtigungen verfügen, den Tag-Namespace zu verwenden. Weitere Informationen zu Tagging finden Sie unter Ressourcentags. Wenn Sie nicht sicher sind, ob Sie Tags anwenden sollen, überspringen Sie diese Option, oder fragen Sie einen Administrator. Sie können Tags später anwenden.
-
Wählen Sie Erstellen.
Hinweis
Im Modellkatalog gespeicherte Modelle können auch mit dem Modell-Deployment bereitgestellt werden.