Esegui applicazioni

Scopri come eseguire le applicazioni create in Data Flow, fornire valori di argomenti e parametri, rivedere i risultati e diagnosticare e ottimizzare le esecuzioni, incluse le opzioni JVM.

Importante

Data Flow arresta automaticamente i processi batch con tempi di esecuzione lunghi utilizzando token di delega dopo 24 ore e i processi batch con tempi di esecuzione lunghi utilizzando principal risorsa dopo 30 giorni. Non viene inviata alcuna notifica che il job sta per essere arrestato.
Se l'applicazione non ha terminato l'elaborazione dei dati, è possibile che si verifichi un errore di esecuzione e il job rimanga incompleto. Per evitare questo problema, utilizzare le seguenti opzioni per limitare il tempo totale di esecuzione dell'applicazione:
Quando si creano esecuzioni utilizzando la console
In Opzioni avanzate specificare la durata in Minuti durata massima esecuzione.
Quando si creano esecuzioni mediante l'interfaccia CLI
Passa l'opzione della riga di comando di --max-duration-in-minutes <number>
Durante la creazione delle esecuzioni mediante l'SDK
Fornire l'argomento facoltativo max_duration_in_minutes
Durante la creazione delle esecuzioni mediante l'API
Impostare l'argomento facoltativo maxDurationInMinutes

Comprendere le esecuzioni

Ogni volta che viene eseguita un'applicazione di flusso dati, viene creata un'esecuzione di flusso dati. L'esecuzione del flusso di dati acquisisce e memorizza in modo sicuro l'output, i log e le statistiche dell'applicazione. L'output viene salvato in modo che possa essere visualizzato da chiunque disponga delle autorizzazioni corrette mediante l'interfaccia utente o l'API REST. Le esecuzioni consentono inoltre di accedere in modo sicuro all'interfaccia utente Spark per il debug e la diagnostica.