Uso degli operatori della pipeline
In In Data Integration, gli operatori della pipeline rappresentano task e attività diversi che possono essere utilizzati in una pipeline.
Di seguito sono riportati i tipi di operatori di task che è possibile utilizzare in una pipeline.
- Operatori di task di Integration e Data Loader che consentono di eseguire soluzioni di integrazione dati all'interno di una pipeline. È possibile configurare gli input per gli operatori. Gli input degli operatori task sono simili ai parametri definiti a livello di task o di flusso di dati.
- Operatori di task SQL che consentono di eseguire stored procedure SQL all'interno di una pipeline. È possibile configurare i valori per i parametri nelle stored procedure.
- Operatori dei task di OCI Data Flow che consentono di eseguire le applicazioni di OCI Data Flow all'interno di una pipeline.
- Operatori di task REST che consentono di eseguire endpoint API REST all'interno di una pipeline. È possibile riconfigurare i valori di uno qualsiasi dei parametri utilizzati nel task REST.
- Operatori di task della pipeline che consentono di eseguire un'altra pipeline all'interno di una pipeline.
Assicurarsi di esaminare Informazioni sul supporto e considerazioni durante l'utilizzo delle pipeline prima di creare o modificare una pipeline. Ad esempio, prestare attenzione al livello di profondità nidificato e al limite di attività per livello.
Per tutti gli operatori di task, è possibile selezionare task in fase di progettazione da progetti nell'area di lavoro corrente e task pubblicati da qualsiasi applicazione nell'area di lavoro corrente. Con i task REST pubblicati e i task di OCI Data Flow, è inoltre possibile selezionare un task da qualsiasi applicazione in un'altra area di lavoro nello stesso compartimento o in un altro compartimento.
Per i task eseguiti in parallelo, è possibile utilizzare un operatore di unione e specificare una condizione per gestire le operazioni successive a valle. Per recuperare l'output da qualsiasi operatore e passarlo all'operatore successivo, è possibile utilizzare un operatore di espressione.
Per creare una pipeline si utilizza un designer simile al designer del flusso di dati. Il designer viene aperto con un operatore iniziale e un operatore finale già posizionato sullo sfondo. In una pipeline possono esistere solo un operatore iniziale e un operatore finale. Una pipeline deve includere almeno un operatore task per essere valida. È possibile aggiungere un numero qualsiasi di task, quindi collegarli in una sequenza tra l'operatore iniziale e l'operatore finale. Dal pannello Operatori trascinare gli operatori sull'area di creazione per progettare la pipeline. Utilizzare quindi il pannello Properties per configurare le proprietà per ciascun operatore.
I task collegati direttamente all'operatore di avvio vengono sempre eseguiti. I task successivi nella sequenza possono essere configurati per l'esecuzione in base alla condizione dell'operatore precedente. Ad esempio, si consideri una pipeline con la sequenza Inizio > Task A > Task B > Fine. Il task A viene sempre eseguito. Per il task B, è possibile utilizzare la proprietà Condizione collegamento in entrata nel pannello Proprietà per configurare l'esecuzione del task in modo che venga eseguita sempre o solo quando lo stato del task A soddisfa una condizione di esecuzione specifica.
Per collegare gli operatori, passare il puntatore del mouse su un operatore fino a visualizzare il connettore (piccolo cerchio) sul lato destro dell'operatore. Trascinare quindi il connettore sull'operatore successivo a cui si desidera connettersi. Una connessione è valida quando una linea connette gli operatori dopo l'eliminazione del connettore.
In generale, un operatore dispone di una sola porta in entrata e di una o più porte in uscita per consentire ai processi di passare attraverso la pipeline. Ad esempio, è possibile connettere la stessa porta in uscita dell'operatore di task SQL alle porte in entrata su due operatori di espressione separati. Solo l'operatore finale e l'operatore di unione possono avere più porte in entrata.
È possibile duplicare rapidamente un operatore di task o espressione aggiunto a una pipeline. Per duplicare l'operatore, fare clic con il pulsante destro del mouse sull'icona dell'operatore nell'area di creazione e selezionare Duplica dal menu visualizzato. Quindi rinominare l'identificativo dell'operatore duplicato nel pannello Proprietà. Se l'operatore originale è collegato ad altri operatori, le connessioni e gli eventuali riferimenti alle uscite di un operatore precedente non vengono copiati nell'operatore duplicato.
Operatore iniziale e operatore finale
Quando si inizia a creare una pipeline, il designer viene aperto con un operatore iniziale e un operatore finale già posizionato nell'area di creazione. In una pipeline possono esistere solo un operatore iniziale e un operatore finale.
L'operatore iniziale non dispone di proprietà che è possibile configurare.
Con l'operatore finale, è possibile configurare la proprietà Condizione collegamento in entrata per specificare una delle seguenti regole per lo stato di esecuzione di un task pipeline:
- Tutto completato: lo stato del task pipeline viene visualizzato come Operazione riuscita anche quando uno dei task nella pipeline non riesce.
- Tutti i task riusciti: lo stato del task pipeline viene visualizzato come Operazione riuscita quando tutti i task nella pipeline vengono completati correttamente.
- Tutto non riuscito: lo stato del task pipeline viene visualizzato come Operazione riuscita quando tutti i task nella pipeline non riescono.
Operatore di unione
Per i task eseguiti in parallelo, è possibile utilizzare l'operatore di unione e specificare una condizione per decidere come gestire le operazioni successive a valle.
Un operatore di unione può avere più collegamenti di input (a monte) e più collegamenti di output (a valle).
Operatore espressione
Un operatore di espressione pipeline consente di creare nuovi campi derivati in una pipeline, come un operatore di espressione in un flusso di dati.
A differenza di un operatore di espressione del flusso di dati, un operatore di espressione della pipeline non funziona sui dati. Un operatore di espressione della pipeline consente di operare sull'output dell'operatore precedente, dei parametri della pipeline e dell'output generato dal sistema.
Utilizzare il Builder delle espressioni per selezionare visivamente gli elementi per creare un'espressione per un operatore di espressione in una pipeline. È inoltre possibile immettere un'espressione manualmente nell'editor.
Il Builder delle espressioni è una sezione del pannello Aggiungi espressione.
È possibile eliminare le espressioni quando non sono più necessarie.
- Nell'area di creazione di una pipeline, selezionare un operatore di espressione.
- Con l'operatore di espressione attivo, nella scheda Dettagli del pannello Proprietà, selezionare l'espressione che si desidera eliminare, quindi fare clic su Elimina.
- Nella finestra di dialogo Elimina espressione verificare di voler eliminare questa espressione, quindi fare clic su Elimina.
Operatore decisionale
Utilizzare l'operatore decisionale per scrivere una condizione booleana che determina il flusso di diramazione nella pipeline. La diramazione si basa su tre possibili risultati, ovvero TRUE, FALSE e ERROR.
Un operatore decisionale dispone di un collegamento di input (a monte) e di tre collegamenti di output (a valle).
Operatore task di Data Loader
Un operatore di task di Data Loader consente di eseguire un task di Data Loader all'interno di una pipeline.
Un operatore di task di Data Loader connesso direttamente all'operatore di avvio viene sempre eseguito.
Per un operatore di task non connesso direttamente all'operatore iniziale, è possibile utilizzare la proprietà Condizione collegamento in entrata per configurare l'esecuzione del task in modo che venga eseguita sempre o solo quando lo stato dell'operatore precedente soddisfa una condizione di esecuzione specifica.
Operatore task integrazione
Un operatore del task di integrazione consente di eseguire un flusso di dati configurato per un contesto specifico. Il flusso di dati deve essere sottoposto a wrapping in un task di integrazione.
Un operatore di task di integrazione connesso direttamente all'operatore di avvio viene sempre eseguito.
Per un operatore di task non connesso direttamente all'operatore iniziale, è possibile utilizzare la proprietà Condizione collegamento in entrata per configurare l'esecuzione del task in modo che venga eseguita sempre o solo quando lo stato dell'operatore precedente soddisfa una condizione di esecuzione specifica.
Operatore task pipeline
Un operatore di task pipeline consente di eseguire una pipeline all'interno di un'altra pipeline.
Un operatore di task pipeline connesso direttamente all'operatore di avvio viene sempre eseguito.
Per un operatore di task non connesso direttamente all'operatore iniziale, è possibile utilizzare la proprietà Condizione collegamento in entrata per configurare l'esecuzione del task in modo che venga eseguita sempre o solo quando lo stato dell'operatore precedente soddisfa una condizione di esecuzione specifica.
Operatore task SQL
Un operatore di task SQL consente di eseguire un oggetto SQL, ad esempio una stored procedure.
Un operatore di task SQL connesso direttamente all'operatore di avvio viene sempre eseguito.
Per un operatore di task non connesso direttamente all'operatore iniziale, è possibile utilizzare la proprietà Condizione collegamento in entrata per configurare l'esecuzione del task in modo che venga eseguita sempre o solo quando lo stato dell'operatore precedente soddisfa una condizione di esecuzione specifica.
Operatore task di OCI Data Flow
Un operatore di task OCI Data Flow consente di eseguire un'applicazione OCI Data Flow in una pipeline.
Un operatore task connesso direttamente all'operatore di avvio viene sempre eseguito.
Per un operatore di task non connesso direttamente all'operatore iniziale, è possibile utilizzare la proprietà Condizione collegamento in entrata per configurare l'esecuzione del task in modo che venga eseguita sempre o solo quando lo stato dell'operatore precedente soddisfa una condizione di esecuzione specifica.
Operatore task REST
Un operatore di task REST consente di eseguire un endpoint API REST in una pipeline.
Un operatore task connesso direttamente all'operatore di avvio viene sempre eseguito.
Per un operatore di task non connesso direttamente all'operatore iniziale, è possibile utilizzare la proprietà Condizione collegamento in entrata per configurare l'esecuzione del task in modo che venga eseguita sempre o solo quando lo stato dell'operatore precedente soddisfa una condizione di esecuzione specifica.