Creazione di un job

Creare ed eseguire un job in Data Science.

Assicurarsi di aver creato i criteri, l'autenticazione e l'autorizzazione necessari per i job.

Prima di iniziare:

  • Creare un file artifact del job o creare un contenitore personalizzato.

  • Per memorizzare e gestire i log dei job, informarsi sul log.

  • Per utilizzare gli accessi di storage, è necessario disporre di un bucket di storage degli oggetti o di una destinazione di accesso e di un percorso di esportazione FSS (File Storage Service) OCI.

    Per usare FSS, occorre prima creare il file system e il punto di attivazione. Utilizzare l'opzione di rete personalizzata e assicurarsi che la destinazione di accesso e il notebook siano configurati con la stessa subnet. Configurare le regole dell'elenco di sicurezza per la sottorete con porte e protocolli specifici.

    Assicurarsi che i limiti del servizio siano allocati a file-system-count e mount-target-count.

  • Per utilizzare gli accessi di storage, è necessario disporre di un bucket di storage degli oggetti o di un punto di accesso FSS (File Storage Service) OCI.

  • Aggiungere le informazioni di base per il job che si sta creando.
    1. Nella pagina dell'elenco dei job, selezionare Crea job. Per informazioni su come trovare l'elenco dei job, vedere Elenco dei job.
    2. Selezionare Singolo nodo se si utilizza un singolo computer per il job o Multi nodo per i job impegnativi che devono essere eseguiti su più nodi.
    3. (Facoltativo) Selezionare un compartimento diverso per il job.
    4. (Facoltativo) Immettere un nome e una descrizione per il job (limite di 255 caratteri). Se non si fornisce un nome, viene generato automaticamente un altro nome.

      Ad esempio, job20210808222435

    5. Passi di configurazione a nodo singolo o multiplo
    Utilizzo della console per i job a nodo singolo
    Utilizzo della console per i job multi-nodo
  • Queste variabili di ambiente controllano il job.

    Utilizzare l'interfaccia CLI di Data Science per creare un job come nell'esempio riportato di seguito.

    1. Creare un job con:
      oci data-science job create \
      --display-name <job_name>\
      --compartment-id <compartment_ocid>\
      --project-id <project_ocid> \
      --configuration-details file://<jobs_configuration_json_file> \
      --infrastructure-configuration-details file://<jobs_infrastructure_configuration_json_file> \
      --log-configuration-details file://<optional_jobs_infrastructure_configuration_json_file>
    2. Utilizzare questo file JSON di configurazione dei job:
      {
        "jobType": "DEFAULT",
        "maximumRuntimeInMinutes": 240,
        "commandLineArguments" : "test-arg",
        "environmentVariables": {
          "SOME_ENV_KEY": "some_env_value" 
        }
      }
    3. Utilizzare questo file JSON di configurazione dell'infrastruttura di job:
      {
        "jobInfrastructureType": "STANDALONE",
        "shapeName": "VM.Standard2.1",
        "blockStorageSizeInGBs": "50",
        "subnetId": "<subnet_ocid>"
      }
    4. (Facoltativo) Utilizzare questo file JSON di configurazione di log dei job:
      {
        "enableLogging": true,
        "enableAutoLogCreation": true,
        "logGroupId": "<log_group_ocid>"
      }
    5. Caricare un file artifact del job per il job creato con:
      oci data-science job create-job-artifact \
      --job-id <job_ocid> \
      --job-artifact-file <job_artifact_file_path> \
      --content-disposition "attachment; filename=<job_artifact_file_name>"
  • ADS SDK è anche una libreria Python disponibile pubblicamente che è possibile installare con questo comando:

    pip install oracle-ads

    Fornisce il wrapper che semplifica la creazione e l'esecuzione dei job dai notebook o dalla macchina client.

    Utilizzare l'SDK ADS per creare ed eseguire job.