Job erstellen

Erstellen und führen Sie einen Job in Data Science aus.

Stellen Sie sicher, dass Sie die erforderlichen Einstellungen für Policys, Authentifizierung und Autorisierung für Ihre Jobs eingerichtet haben.

Bevor Sie beginnen:

  • Erstellen Sie eine Jobartefaktdatei, oder erstellen Sie einen benutzerdefinierten Container.

  • Informationen zum Logging, um Joblogs zu speichern und zu verwalten.

  • Um Speichermounts zu verwenden, benötigen Sie einen Objektspeicher-Bucket oder ein OCI File Storage Service-(FSS-)Mountziel und einen Exportpfad.

    Um FSS verwenden zu können, müssen Sie zuerst das Dateisystem und den Einhängepunkt erstellen. Verwenden Sie die benutzerdefinierte Netzwerkoption, und stellen Sie sicher, dass das Mountziel und das Notizbuch mit demselben Subnetz konfiguriert sind. Konfigurieren Sie Sicherheitslistenregeln für das Subnetz mit den spezifischen Ports und Protokollen.

    Stellen Sie sicher, dass Servicelimits file-system-count und mount-target-count zugewiesen sind.

  • Um Speichermounts verwenden zu können, benötigen Sie einen Objektspeicher-Bucket oder einen OCI File Storage Service-(FSS-)Mount Point.

  • Fügen Sie grundlegende Informationen für den Job hinzu, den Sie erstellen.
    1. Wählen Sie auf der Seite mit der Jobliste die Option Job erstellen aus. Wenn Sie Hilfe bei der Suche nach der Jobliste benötigen, finden Sie weitere Informationen unter Jobs auflisten.
    2. Wählen Sie Einzelknoten aus, wenn Sie einen einzelnen Rechner für den Job verwenden, oder Mehrknoten für anspruchsvolle Jobs, die über mehrere Knoten ausgeführt werden sollen.
    3. (Optional) Wählen Sie ein anderes Compartment für den Job aus.
    4. (Optional) Geben Sie einen Namen und die Beschreibung für den Job (maximal 255 Zeichen) ein. Wenn Sie keinen Namen angeben, wird automatisch ein Name generiert.

      Beispiel: job20210808222435

    5. Konfigurationsschritte für einzelne oder mehrere Knoten
    Konsole für Einzelknotenjobs verwenden
    Konsole für Jobs mit mehreren Knoten verwenden
  • Diese Umgebungsvariablen steuern den Job.

    Mit der Data Science-CLI können Sie einen Job wie in diesem Beispiel erstellen:

    1. Erstellen Sie einen Job mit:
      oci data-science job create \
      --display-name <job_name>\
      --compartment-id <compartment_ocid>\
      --project-id <project_ocid> \
      --configuration-details file://<jobs_configuration_json_file> \
      --infrastructure-configuration-details file://<jobs_infrastructure_configuration_json_file> \
      --log-configuration-details file://<optional_jobs_infrastructure_configuration_json_file>
    2. Verwenden Sie diese JSON-Datei für die Jobkonfiguration:
      {
        "jobType": "DEFAULT",
        "maximumRuntimeInMinutes": 240,
        "commandLineArguments" : "test-arg",
        "environmentVariables": {
          "SOME_ENV_KEY": "some_env_value" 
        }
      }
    3. Verwenden Sie die JSON-Datei für die Jobinfrastrukturkonfiguration:
      {
        "jobInfrastructureType": "STANDALONE",
        "shapeName": "VM.Standard2.1",
        "blockStorageSizeInGBs": "50",
        "subnetId": "<subnet_ocid>"
      }
    4. (Optional) Verwenden Sie diese JSON-Datei für die Jobloggingkonfiguration:
      {
        "enableLogging": true,
        "enableAutoLogCreation": true,
        "logGroupId": "<log_group_ocid>"
      }
    5. Laden Sie wie folgt eine Jobartefaktdatei für den erstellten Job hoch:
      oci data-science job create-job-artifact \
      --job-id <job_ocid> \
      --job-artifact-file <job_artifact_file_path> \
      --content-disposition "attachment; filename=<job_artifact_file_name>"
  • Das ADS-SDK ist auch eine öffentlich verfügbare Python-Library, die Sie mit diesem Befehl installieren können:

    pip install oracle-ads

    Es stellt den Wrapper zur Verfügung, der das Erstellen und Ausführen von Jobs aus Notizbüchern oder auf dem Clientrechner vereinfacht.

    Mit dem ADS-SDK können Sie Jobs erstellen und ausführen.