Scala automatica

Per risparmiare risorse e ridurre i tempi di gestione, l'allocazione dinamica Spark è ora abilitata in Data Flow.

La pianificazione delle risorse per l'elaborazione dei dati è un'attività complessa. L'utilizzo delle risorse è una funzione del volume dei dati. I volumi giornalieri di dati possono variare, il che significa che anche la risorsa computazionale richiede modifiche.

È possibile definire un cluster Data Flow in base a un intervallo di esecutori, anziché a un numero fisso di esecutori. Spark fornisce un meccanismo per regolare dinamicamente gli occupi dell'applicazione delle risorse in base al carico di lavoro. L'applicazione potrebbe rinunciare alle risorse se non vengono più utilizzate e richiederle di nuovo in un secondo momento in caso di domanda. La fatturazione conta solo l'ora in cui una risorsa viene utilizzata dall'applicazione. Le risorse restituite non vengono fatturate.