6 Erste Schritte mit der Benutzeroberfläche von AutoML

Die AutoML-Benutzeroberfläche (AutoML UI) ist eine Oracle Machine Learning-Schnittstelle, die Ihnen die automatische Modellierung des maschinellen Lernens ohne Code bietet. Wenn Sie ein Experiment in der Benutzeroberfläche von AutoML erstellen und ausführen, werden automatisierte Algorithmenauswahl, Featureauswahl und Modelloptimierung ausgeführt. Dadurch wird die Produktivität erhöht und die Modellgenauigkeit und -performance potenziell erhöht.

Die folgenden Schritte umfassen einen Modellierungsworkflow für maschinelles Lernen und werden von der Benutzeroberfläche AutoML automatisiert:

  1. Algorithmusauswahl: Sortiert Algorithmen, die wahrscheinlich ein genaueres Modell basierend auf dem Dataset und seinen Eigenschaften und einigen prädiktiven Features des Datasets für jeden Algorithmus erstellen.
  2. Adaptive Sampling: Findet ein geeignetes Datenbeispiel. Ziel dieser Phase ist es, die Phasen Feature Selection und Model Tuning zu beschleunigen, ohne die Modellqualität zu beeinträchtigen.
  3. Featureauswahl: Wählt eine Teilmenge von Features aus, die für das Ziel am vorausschauendsten sind. Ziel dieser Phase ist es, die Anzahl der in den späteren Pipelinephasen verwendeten Features zu reduzieren, insbesondere während der Modelloptimierungsphase, um die Pipeline zu beschleunigen, ohne die Vorhersagegenauigkeit zu beeinträchtigen.
  4. Modelloptimierung: Ziel ist es, die individuelle Algorithmusmodellqualität basierend auf der ausgewählten Metrik für jeden der in der engeren Auswahl stehenden Algorithmen zu erhöhen.
  5. Auswirkung der Featurevorhersage: Dies ist die letzte Phase in der UI-Pipeline AutoML. Hier wird die Auswirkung jeder Eingabespalte auf die Vorhersagen des endgültigen optimierten Modells berechnet. Die berechnete Vorhersageauswirkung liefert Einblicke in das Verhalten des optimierten AutoML-Modells.
Geschäftsanwender ohne umfangreichen Data Science-Hintergrund können mit der Benutzeroberfläche von AutoML Modelle für maschinelles Lernen erstellen und bereitstellen. Oracle Machine Learning AutoML UI bietet zwei funktionale Features:
  • Modelle für Machine Learning erstellen
  • Bereitstellen von ML-Modellen

AutoML UI-Experimente

Wenn Sie ein Experiment in der Benutzeroberfläche von AutoML erstellen, werden automatisch alle Schritte im Workflow für maschinelles Lernen ausgeführt. Auf der Seite Experimente werden alle von Ihnen erstellten Experimente aufgeführt. Klicken Sie auf ein Experiment, um Details zum Experiment anzuzeigen. Darüber hinaus haben Sie folgende Möglichkeiten:

Abbildung 6-1 Seite "Experimente"

Experimente
  • Erstellen: Klicken Sie auf Erstellen, um ein neues UI-Experiment für AutoML zu erstellen. Das von Ihnen erstellte UI-Experiment AutoML befindet sich im Projekt, das Sie im Projekt unter dem Workspace ausgewählt haben.
  • Bearbeiten: Wählen Sie ein beliebiges Experiment aus, das hier aufgeführt wird, und klicken Sie auf Bearbeiten, um die Experimentdefinition zu bearbeiten.
  • Löschen: Wählen Sie ein beliebiges hier aufgeführtes Experiment aus, und klicken Sie auf Löschen, um es zu löschen. Sie können ein laufendes Experiment nicht löschen. Sie müssen das Experiment zuerst stoppen, um es zu löschen.
  • Doppeln: Wählen Sie ein Experiment aus, und klicken Sie auf Doppeln, um eine Kopie davon zu erstellen. Das Experiment wird sofort dupliziert und befindet sich im Status "Bereit".
  • Verschieben: Wählen Sie ein Experiment aus, und klicken Sie auf Verschieben, um das Experiment in ein anderes Projekt in demselben oder einem anderen Workspace zu verschieben. Sie benötigen entweder die Berechtigung Administrator oder Developer, um Experimente über Projekte und Workspaces hinweg zu verschieben.

    Hinweis:

    Ein Experiment kann nicht verschoben werden, wenn es den Status RUNNING, STOPPING oder STARTING aufweist oder wenn bereits ein Experiment mit demselben Namen im Zielprojekt vorhanden ist.
  • Kopieren: Wählen Sie ein Experiment aus, und klicken Sie auf Kopieren, um das Experiment in ein anderes Projekt in demselben oder einem anderen Workspace zu kopieren.
  • Starten: Wenn Sie ein Experiment erstellt, es jedoch nicht ausgeführt haben, klicken Sie auf Starten, um das Experiment auszuführen.
  • Stoppen: Wählen Sie ein aktives Experiment, und klicken Sie auf Stoppen, um die Ausführung des Experiments zu stoppen.

6.1 Zugriff auf die Benutzeroberfläche von AutoML

Sie können über Oracle Machine Learning Notebooks auf die Benutzeroberfläche von AutoML zugreifen.

Um auf die AutoML-UI zuzugreifen, müssen Sie sich zuerst von Autonomous Database aus bei Oracle Machine Learning Notebooks anmelden:
  1. So melden Sie sich über Autonomous Database bei Oracle Machine Learning Notebooks an:
    1. Wählen Sie eine Autonomous Database-Instanz aus, und klicken Sie auf der Detailseite für Autonomous Database auf Database Actions.

      Abbildung 6-2: Datenbankaktionen

      Database Actions
    2. Gehen Sie auf der Seite "Datenbankaktionen" zum Abschnitt "Entwicklung", und klicken Sie auf Oracle Machine Learning.

      Abbildung 6-3: Oracle Machine Learning

      Oracle Machine Learning
      Die Anmeldeseite für Oracle Machine Learning wird geöffnet.
    3. Geben Sie den Benutzernamen und das Kennwort ein, und klicken Sie auf Anmelden.
    Dadurch wird die Homepage von Oracle Machine Learning Notebooks geöffnet.
  2. Klicken Sie auf der Oracle Machine Learning Notebooks-Homepage auf AutoML.

    Abbildung 6-4: Optionen für AutoML

    Option AutoML auf der Homepage und im linken Navigationsmenü

    Sie können auch auf das Hamburger-Menü klicken und unter "Projekte" auf AutoML klicken.

6.2 Benutzeroberflächenexperiment AutoML erstellen

Um die Oracle Machine Learning AutoML UI zu verwenden, erstellen Sie zunächst ein Experiment. Ein Experiment ist eine Arbeitseinheit, die Datenquelle, Vorhersageziel und Vorhersagetyp minimal angibt. Nachdem ein Experiment erfolgreich ausgeführt wurde, wird eine Liste der Modelle für maschinelles Lernen in der Reihenfolge der Modellqualität gemäß der ausgewählten Metrik angezeigt. Sie können eines dieser Modelle für das Deployment auswählen oder ein Notizbuch generieren. Das generierte Notizbuch enthält Python-Code mit OML4Py und die spezifischen Einstellungen AutoML, mit denen das Modell erstellt wird.

Um ein Experiment zu erstellen, geben Sie Folgendes an:
  1. Geben Sie im Feld Name einen Namen für das Experiment ein.

    Abbildung 6-5: Experiment AutoML erstellen

    Beschreibung von Abbildung 6-5 folgt
    Beschreibung von "Abbildung 6-5: AutoML-Experiment erstellen"
  2. Geben Sie im Feld Bemerkungen ggf. Kommentare ein.
  3. Wählen Sie im Feld Datenquelle das Schema und eine Tabelle oder View in diesem Schema aus. Klicken Sie auf das Suchsymbol, um das Dialogfeld Tabelle auswählen zu öffnen. Suchen Sie ein Schema, und wählen Sie es aus. Wählen Sie dann eine Tabelle aus der Schemaliste aus, der Datenquelle des UI-Experiments von AutoML.

    Abbildung 6-6 Dialogfeld "Tabelle auswählen"

    Dialogfeld Tabelle auswählen
    1. Wählen Sie in der Spalte "Schema" ein Schema aus.

      Hinweis:

      Während Sie die Datenquelle auswählen, werden Statistiken im Raster "Features" unten auf der Experimentseite angezeigt. Der Status "Belegt" wird angezeigt, bis die Berechnung abgeschlossen ist. Die Zielspalte, die Sie in "Vorhersagen" auswählen, wird im Raster "Features" hervorgehoben.
    2. Je nach ausgewähltem Schema werden die verfügbaren Tabellen in der Tabellenspalte aufgeführt. Wählen Sie die Tabelle aus, und klicken Sie auf OK.

    Hinweis:

    Um ein AutoML-Experiment für eine Tabelle oder View zu erstellen, die im Schema eines anderen Benutzers vorhanden ist, stellen Sie sicher, dass Sie explizite Berechtigungen für den Zugriff auf diese Tabelle oder View im Schema haben. Bitten Sie den Datenbankadministrator oder den Eigentümer des Schemas, Ihnen die Berechtigungen für den Zugriff auf die Tabelle oder View zu erteilen. Beispiel:
    grant select on <table> to <user>
  4. Wählen Sie in der Dropdown-Liste Vorhersagen die Spalte aus der ausgewählten Tabelle aus. Dies ist das Ziel für Ihre Vorhersage.
  5. Im Feld Vorhersagetyp wird der Vorhersagetyp basierend auf Ihrer Datendefinition automatisch ausgewählt. Wenn der Datentyp dies zulässt, können Sie den Vorhersagetyp jedoch aus der Dropdown-Liste überschreiben. Folgende Vorhersagetypen werden unterstützt:
    • Klassifizierung: Bei einem nicht numerischen Datentyp ist standardmäßig "Klassifizierung" ausgewählt.
    • Regression: Für den numerischen Datentyp ist "Regression" standardmäßig ausgewählt.
  6. Die Fall-ID hilft bei der Datensampling- und Dataset-Aufteilung, um die Ergebnisse zwischen Experimenten reproduzierbar zu machen. Es hilft auch, die Zufälligkeit in den Ergebnissen zu reduzieren. Dies ist ein optionales Feld.
  7. Im Abschnitt Zusätzliche Einstellungen können Sie Folgendes definieren:

    Abbildung 6-7 Zusätzliche Einstellungen eines AutoML-Experiments

    Beschreibung von Abbildung 6-7 folgt
    Beschreibung von "Abbildung 6-7 Zusätzliche Einstellungen eines AutoML-Experiments"
    1. Reset: Klicken Sie auf Reset, um die Einstellungen auf die Standardwerte zurückzusetzen.
    2. Maximale Anzahl Modelle höchster Ebene: Wählen Sie die maximale Anzahl der zu erstellenden Modelle höchster Ebene aus. Der Standardwert ist 5-Modelle. Sie können die Anzahl der Top-Modelle auf 2 oder 3 reduzieren, da das Tuning von Modellen für jeden Algorithmus zusätzliche Zeit erfordert, um das Top-Modell zu erhalten. Wenn Sie die ersten Ergebnisse noch schneller erhalten möchten, sollten Sie den empfohlenen Algorithmus in Betracht ziehen. Setzen Sie dazu die Option Maximale Top-Modelle auf 1.. Dadurch wird das Modell für diesen Algorithmus optimiert.
    3. Maximale Ausführungsdauer: Dies ist die maximale Zeit, für die das Experiment ausgeführt werden darf. Wenn Sie keine Zeit eingeben, kann das Experiment bis zum Standardwert (8 Stunden) ausgeführt werden.
    4. Datenbankservicegrad: Dies ist die Serviceebene für die Datenbankverbindung und die Abfrageparallelitätsebene. Der Standardwert ist Low. Dies führt zu keiner Parallelisierung und legt einen hohen Laufzeitgrenzwert fest. Sie können viele Verbindungen mit der Datenbankserviceebene Low erstellen. Sie können auch die Datenbankserviceebene in Medium oder High ändern.
      • Die Ebene High bietet die größte Parallelität, schränkt jedoch die Anzahl der gleichzeitigen Jobs erheblich ein.
      • Die Ebene Medium ermöglicht eine gewisse Parallelität, ermöglicht jedoch einen größeren gleichzeitigen Zugriff für die Jobverarbeitung.

      Hinweis:

      Eine Änderung der Einstellung für den Datenbankservicegrad in Immer Free Tier hat keine Auswirkungen, da ein Grenzwert von 1 OCPU vorliegt. Wenn Sie jedoch die der autonomen Datenbankinstanz zugewiesenen OCPUs erhöhen, können Sie den Datenbankservicegrad auf Medium oder High. erhöhen.

      Hinweis:

      Die Einstellung Datenbankservicegrad hat keine Auswirkungen auf Ressourcen auf Containerebene AutoML.
    5. Modellmetrik: Wählen Sie eine Metrik aus, um die Gewinnermodelle zu wählen. Die folgenden Metriken werden von der AutoML-UI unterstützt:
      • Für die Klassifizierung werden folgende Metriken unterstützt:
        • Ausgewogene Genauigkeit
        • ROC AUC
        • F1 (mit gewichteten Optionen). Die gewichteten Optionen sind gewichtet, binär, micro und macro.
          • Mikrodurchschnittlich: Hier tragen alle Proben gleichermaßen zur endgültigen gemittelten Metrik bei
          • Makrodurchschnittlich: Hier tragen alle Klassen gleichermaßen zur endgültigen gemittelten Metrik bei
          • Gewichtet-durchschnittlich: Hier wird der Beitrag jeder Klasse zum Durchschnitt durch ihre Größe gewichtet
        • Präzision (mit gewichteten Optionen)
        • Rückruf (mit gewichteten Optionen)
      • Für Regression werden folgende Metriken unterstützt:
        • R2 (Standard)
        • Negative mittlere quadratische Abweichung
        • Negative absolute Abweichung vom Mittelwert
        • Negativer absoluter Fehler im Medianwert
    6. Algorithmus: Die unterstützten Algorithmen hängen vom ausgewählten Vorhersagetyp ab. Klicken Sie auf das entsprechende Kontrollkästchen für die Algorithmen, um es auszuwählen. Standardmäßig werden alle Kandidatenalgorithmen bei der Ausführung des Experiments zur Prüfung ausgewählt. Die unterstützten Algorithmen für die beiden Vorhersagetypen:
      • Für die Klassifizierung werden folgende Algorithmen unterstützt:
        • Entscheidungsbaum
        • Generalisiertes lineares Modell
        • Generalisiertes lineares Modell (Ridge-Regression)
        • Neuronales Netzwerk
        • Random Forest
        • Support Vector Machine (Gaußische)
        • Support Vector Machine (Linear)
      • Für Regression werden folgende Algorithmen unterstützt:
        • Generalisiertes lineares Modell
        • Generalisiertes lineares Modell (Ridge-Regression)
        • Neuronales Netzwerk
        • Support Vector Machine (Gaußische)
        • Support Vector Machine (Linear)

      Hinweis:

      Sie können Algorithmen entfernen, die nicht berücksichtigt werden, wenn Sie Voreinstellungen für bestimmte Algorithmen haben oder bestimmte Anforderungen haben. Wenn beispielsweise die Modelltransparenz unerlässlich ist, wäre der Ausschluss von Modellen wie Neural Network sinnvoll. Beachten Sie, dass einige Algorithmen rechenintensiver sind als andere. Naive Bayes und Decision Tree sind normalerweise schneller als Support Vector Machine oder Neural Network.
  8. Blenden Sie das Raster Features ein, um die Statistiken der ausgewählten Tabelle anzuzeigen. Die unterstützten Statistiken sind "Eindeutige Werte", "Minimum", "Maximum", "Mittel" und "Standardabweichung". Die unterstützten Datenquellen für Features sind Tabellen, Views und Analyse-Views. Die Zielspalte, die Sie in "Vorhersage" ausgewählt haben, wird hier hervorgehoben. Nach Abschluss einer Experimentausführung wird im Raster "Features" eine zusätzliche Spalte Wichtigkeit angezeigt. Die Featurebedeutung gibt die allgemeine Sensibilität der Vorhersage für ein bestimmtes Feature an.

    Abbildung 6-8: Funktionen

    Features
    Sie können folgende Aufgaben durchführen:
    • Aktualisieren: Klicken Sie auf "Aktualisieren", um alle Spalten und Statistiken für die ausgewählte Datenquelle abzurufen.
    • Wichtigkeit anzeigen: Bewegen Sie den Mauszeiger über die horizontale Leiste unter "Wichtigkeit", um den Wert der Featurewichtigkeit für die Variablen anzuzeigen. Der Wert wird immer im Bereich 0 bis 1 dargestellt, wobei Werte, die näher an 1 liegen, wichtiger sind.
  9. Wenn Sie die Definition des Experiments abgeschlossen haben, sind die Schaltflächen Start und Speichern aktiviert.

    Abbildung 6-9 Optionen zum Starten des Experiments

    Start-Experiment-Optionen
    • Klicken Sie auf Start, um das Experiment auszuführen und den UI-Workflow AutoML zu starten. Dieser wird in der Fortschrittsleiste angezeigt. Hier haben Sie die Möglichkeit:
      1. Schnellere Ergebnisse: Wählen Sie diese Option aus, wenn Sie Kandidatenmodelle früher abrufen möchten, möglicherweise auf Kosten der Genauigkeit. Diese Option funktioniert mit einer kleineren Gruppe von Hyperparamter-Kombinationen und führt somit zu einem schnelleren Ergebnis.
      2. Bessere Genauigkeit: Wählen Sie diese Option aus, wenn Sie mehr Pipelinekombinationen für möglicherweise genauere Modelle ausprobieren möchten. Eine Pipeline wird als Algorithmus, ausgewähltes Datenfeatureset und Satz von Algorithmushyperparametern definiert.

        Hinweis:

        Diese Option funktioniert mit der breiteren Gruppe von Hyperparameteroptionen, die vom internen Meta-Learning-Modell empfohlen werden. Die Auswahl von Bessere Genauigkeit dauert länger, um Ihr Experiment auszuführen, bietet jedoch möglicherweise Modelle mit mehr Genauigkeit.

      Nachdem Sie ein Experiment gestartet haben, wird die Fortschrittsleiste mit verschiedenen Symbolen angezeigt, die den Status jeder Phase des Workflows für maschinelles Lernen im Experiment AutoML angeben. In der Fortschrittsleiste wird auch die Zeit angezeigt, die für den Abschluss der Experimentausführung benötigt wurde. Um die Nachrichtendetails anzuzeigen, klicken Sie auf die entsprechenden Nachrichtensymbole.

    • Klicken Sie auf Speichern, um das Experiment zu speichern und später auszuführen.
    • Klicken Sie auf Cancel, um das Erstellen des Experiments abzuschließen.

6.2.1 Unterstützte Datentypen für UI-Experimente AutoML

Beim Erstellen eines AutoML-Experiments müssen Sie die Datenquelle und das Ziel des Experiments angeben. In diesem Thema werden die Datentypen für Python und SQL aufgeführt, die von AutoML-Experimenten unterstützt werden.

Tabelle 6-1: Unterstützte Datentypen durch AutoML-Experimente

Datentypen SQL-Datentypen Python-Datentypen
Numerisch NUMBER, INTEGER, FLOAT, BINARY_DOUBLE, NUMBER, BINARY_FLOAT, DM_NESTED_NUMERICALS, DM_NESTED_BINARY_DOUBLES, DM_NESTED_BINARY_FLOATS

INTEGER, FLOAT(NUMBER, BINARY_DOUBLE, BINARY_FLOAT)

Kategorisch

CHAR, VARCHAR2, DM_NESTED_CATEGORICALS

STRING(VARCHAR2, CHAR, CLOB)

Unstrukturierter Text

CHAR, VARCHAR2, CLOB, BLOB, BFILE

BYTES (RAW, BLOB)

6.3 Experiment anzeigen

Auf der Seite "UI-Experimente AutoML" werden alle von Ihnen erstellten Experimente aufgeführt. Jedes Experiment befindet sich in einer der folgenden Phasen: Abgeschlossen, Laufen und Bereit.

Um ein Experiment anzuzeigen, klicken Sie auf den Namen des Experiments. Auf der Seite "Experiment" werden die Details des ausgewählten Experiments angezeigt. Folgende Abschnitte werden angezeigt:

Experiment bearbeiten

In diesem Abschnitt können Sie das ausgewählte Experiment bearbeiten. Klicken Sie auf Bearbeiten, um das Experiment zu bearbeiten.

Hinweis:

Sie können ein laufendes Experiment nicht bearbeiten.

Metrikdiagramm

Das Modellmetrikdiagramm zeigt den besten Metrikwert im Laufe der Zeit, während das Experiment ausgeführt wird. Es zeigt eine Verbesserung der Genauigkeit im Laufe des Experiments. Der Anzeigename hängt von der ausgewählten Modellmetrik ab, wenn Sie das Experiment erstellen.

Leaderboard

Wenn ein Experiment läuft, zeigt es die Ergebnisse in der Rangliste an. Die Rangliste zeigt die Modelle mit der höchsten Performance im Verhältnis zur ausgewählten Modellmetrik sowie den Algorithmus und die Genauigkeit an. Sie können die Modelldetails anzeigen und folgende Aufgaben ausführen:

Abbildung 6-10 Leaderboard

Leaderboard
  • Modelldetails anzeigen: Klicken Sie auf den Modellnamen, um die Details anzuzeigen. Die Modelldetails werden im Dialogfeld Modelldetails angezeigt. Sie können in der Leaderboard auf mehrere Modelle klicken und die Modelldetails gleichzeitig anzeigen. Das Fenster Modelldetails zeigt Folgendes:
    • Vorhersageauswirkung: Zeigt die Wichtigkeit der Attribute in Bezug auf die Zielvorhersage der Modelle an.
    • Konfusionsmatrix: Zeigt die unterschiedliche Kombination aus Ist- und Vorhersagewerten durch den Algorithmus in einer Tabelle an. Die Konfusionsmatrix dient als Leistungsmessung des Algorithmus für maschinelles Lernen.
  • Bereitstellen: Wählen Sie ein beliebiges Modell in der Leaderboard aus, und klicken Sie auf Bereitstellen, um das ausgewählte Modell bereitzustellen. Modell bereitstellen.
  • Umbenennen: Klicken Sie auf Umbenennen, um den Namen des vom System generierten Modellnamens zu ändern. Der Name muss alphanumerisch sein (maximal 123 Zeichen) und darf keine Leerzeichen enthalten.
  • Notizbuch erstellen: Wählen Sie ein beliebiges Modell in der Rangliste aus, und klicken Sie auf Notizbücher aus AutoML UI-Modellen erstellen, um das ausgewählte Modell aus dem Code neu zu erstellen.
  • Metriken: Klicken Sie auf Metriken, um weitere Metriken auszuwählen, die in der Rangliste angezeigt werden sollen. Die zusätzlichen Metriken sind:
    • Für Klassifizierung
      • Genauigkeit: Berechnet den Anteil der Fälle korrekt klassifiziert - positiv und negativ. Beispiel: Wenn insgesamt TP (True Positives) + TN (True Negatives) korrekt klassifizierte Fälle von TP + TN + FP + FN (True Positives+True Negatives+False Positives+False Negatives) vorliegen, lautet die Formel: Accuracy = (TP+TN)/(TP+TN+FP+FN)
      • Ausgewogene Genauigkeit: Bewertet, wie gut ein binärer Klassifikator ist. Es ist besonders nützlich, wenn die Klassen unausgewogen sind, das heißt, wenn eine der beiden Klassen viel häufiger auftritt als die andere. Dies geschieht oft in vielen Einstellungen wie Anomalieerkennung usw.
      • Rückruf: Berechnet den Anteil der tatsächlichen Positiven, die korrekt klassifiziert sind.
      • Genauigkeit: Berechnet den Anteil der vorhergesagten positiven Ergebnisse, der wahr positiv ist.
      • F1 Score: Kombiniert Genauigkeit und Rückruf in einer einzelnen Zahl. F1-Score wird mit harmonischem Mittel berechnet, das durch die Formel berechnet wird: F1-score = 2 × (precision × recall)/(precision + recall)
    • Für Regression:
      • R2 (Standard): Eine statistische Kennzahl, die berechnet, wie nah die Daten an der angepassten Regressionslinie liegen. Im Allgemeinen, je höher der Wert von R-Quadrat, desto besser passt das Modell zu Ihren Daten. Der Wert von R2 liegt immer zwischen 0 und 1, wobei:
        • 0 gibt an, dass das Modell keine Variabilität der Antwortdaten um den Mittelwert erklärt.
        • 1 gibt an, dass das Modell die gesamte Variabilität der Antwortdaten um den Mittelwert erklärt.
      • Negative Mean Squared Error: Dies ist der Mittelwert der quadratischen Differenz von vorhergesagten und wahren Zielen.
      • Negativer mittlerer absoluter Fehler: Dies ist der Mittelwert der absoluten Differenz von prognostizierten und wahren Zielen.
      • Negativer mittlerer absoluter Fehler: Dies ist der Median der absoluten Differenz zwischen prognostizierten und echten Zielen.

Features

Im Raster Features werden die Statistiken der ausgewählten Tabelle für die von experiment.The unterstützten Statistiken angezeigt: Eindeutige Werte, Minimum, Maximum, Mittelwert und Standardabweichung. Die unterstützten Datenquellen für Features sind Tabellen, Views und Analyse-Views. Die Zielspalte, die Sie in "Vorhersage" ausgewählt haben, wird hier hervorgehoben. Nach Abschluss einer Experimentausführung wird im Raster "Features" eine zusätzliche Spalte Wichtigkeit angezeigt. Die Featurebedeutung gibt die allgemeine Empfindlichkeit der Vorhersage für ein bestimmtes Feature an. Bewegen Sie den Mauszeiger über das Diagramm, um den Wert Wichtigkeit anzuzeigen.Der Wert wird immer im Bereich 0 bis 1 dargestellt, wobei Werte, die näher an 1 liegen, wichtiger sind.

Abbildung 6-11 Features

Abschnitt "Features"

6.3.1 Notizbücher aus UI-Modellen von AutoML erstellen

Sie können Notizbücher mit dem Code OML4Py erstellen, der das ausgewählte Modell mit denselben Einstellungen neu erstellt. Außerdem wird veranschaulicht, wie Daten mit dem Modell bewertet werden. Diese Option ist hilfreich, wenn Sie mit dem Code ein ähnliches Modell für maschinelles Lernen neu erstellen möchten.

So erstellen Sie ein Notizbuch aus einem AutoML-UI-Modell:
  1. Wählen Sie das Modell in der Rangliste aus, basierend auf dem Sie das Notizbuch erstellen möchten, und klicken Sie auf Notizbuch erstellen. Das Dialogfeld "Notizbuch erstellen" wird geöffnet.

    Abbildung 6-12: Notizbuch erstellen

    Notebook erstellen
  2. Geben Sie im Feld Notizbuchname einen Namen für das Notizbuch ein.
    Der REST-API-Endpunkt leitet die Experimentmetadaten ab und bestimmt gegebenenfalls die folgenden Einstellungen:
    • Datenquelle des Experiments (schema.table)
    • Fall-ID. Wenn die Fallkennung für das Experiment nicht verfügbar ist, wird die entsprechende Meldung angezeigt.
    • Ein eindeutiger Modellname basierend auf dem aktuellen Modellnamen wird generiert
    • Informationen zum Bewertungsabsatz:
      • Fall-ID: Wenn verfügbar, wird die Spalte "Fall-ID" in der Ausgabetabelle für die Bewertung zusammengeführt
      • Eindeutigen Namen der Vorhersageausgabetabelle basierend auf Build-Datenquelle und eindeutigem Suffix generieren
      • Name der Prognosespalte: PREDICTION
      • Spaltenname für Vorhersagewahrscheinlichkeit: PROBABILITY (nur für Klassifizierung anwendbar)
  3. Klicken Sie auf OK. Das generierte Notizbuch wird auf der Seite "Notizbuch" aufgeführt. Klicken Sie hier, um das Notizbuch zu öffnen.
    Das generierte Notizbuch zeigt Absatztitel für jeden Absatz zusammen mit den python-Codes an. Nachdem Sie das Notizbuch ausgeführt haben, werden Informationen zum Notizbuch sowie zum Experiment AutoML angezeigt, wie Name, Workspace und Projekt des Experiments, in dem das Notizbuch vorhanden ist, Benutzer, Daten, Vorhersagetyp und Vorhersageziel, Algorithmus und Zeitstempel bei der Generierung des Notizbuchs. AutoML UI-generiertes Notizbuch