Creación y configuración de pipelines
Puede crear uno o más pipelines de carga o exportación. Al crear un pipeline, se utilizan parámetros y se definen atributos de pipeline para configurar el pipeline.
A continuación, se muestran las opciones para crear y configurar un pipeline:
-
Cargar pipeline:
-
Exportar pipeline:
-
Exportar resultados incrementales de una consulta al almacén de objetos mediante una columna de fecha o registro de hora como clave para realizar un seguimiento de los datos más recientes. Consulte Create and Configure a Pipeline for Export with Timestamp Column.
-
Exportar datos incrementales de una tabla al almacén de objetos mediante una columna de fecha o registro de hora como clave para realizar un seguimiento de los datos más recientes. Consulte Create and Configure a Pipeline for Export with Timestamp Column.
-
Exportar datos de una tabla al almacén de objetos mediante una consulta para seleccionar datos sin una referencia a una columna de fecha o registro de hora (para que el pipeline exporte todos los datos que la consulta selecciona para cada ejecución del programador). Consulte Create and Configure a Pipeline to Export Query Results (Without a Timestamp).
-
Creación y configuración de un pipeline para la carga de datos
Puede crear un pipeline para cargar datos de archivos externos en el almacén de objetos en tablas de Autonomous Database.
Un pipeline de carga consume datos colocados en el almacén de objetos y los carga en una tabla de Autonomous Database. Al crear un pipeline de carga, el pipeline se ejecuta a intervalos regulares para consumir los datos colocados en el almacén de objetos. Cuando llegan nuevos archivos de datos, el pipeline carga los nuevos datos. También puede utilizar un pipeline para copiar de forma fiable archivos, con capacidades de reanudación y reintento, del almacén de objetos a una tabla de la base de datos.
Con un pipeline de carga, el paquete de pipeline utiliza DBMS_CLOUD.COPY_DATA
para cargar datos.
En Autonomous Database, utilice una tabla existente o cree la tabla de base de datos en la que está cargando datos. Por ejemplo:
CREATE TABLE EMPLOYEE
(name VARCHAR2(128),
age NUMBER,
salary NUMBER);
Como alternativa, para definir el formato para JSON, puede utilizar el siguiente formato:
BEGIN
DBMS_CLOUD_PIPELINE.SET_ATTRIBUTE
(
pipeline_name => 'MY_PIPE1',
attribute_name => 'format',
attribute_value => JSON_OBJECT('type' value 'json', 'columnpath' value '["$.NAME", "$.AGE", "$.SALARY"]')
);
END;
/
Creación y Configuración de un Pipeline para la Exportación con Columna de Registro de Hora
Con esta opción de pipeline de exportación se especifica una tabla o consulta SQL y una columna con un registro de hora que utiliza el pipeline para realizar un seguimiento de la hora de la última carga. Puede utilizar un pipeline de exportación para compartir datos para que los utilicen otras aplicaciones o para guardar datos en el almacén de objetos.
Con un pipeline de exportación, el paquete de pipeline utiliza DBMS_CLOUD.EXPORT_DATA
para exportar datos.
Un pipeline de exportación exporta datos de Autonomous Database al almacén de objetos. Al crear un pipeline de exportación, el pipeline se ejecuta a intervalos regulares y coloca los datos en el almacén de objetos.
Creación y configuración de un pipeline para exportar resultados de consultas (sin registro de hora)
Puede crear un pipeline de exportación para exportar automáticamente datos de Autonomous Database al almacén de objetos. Con esta opción de pipeline de exportación se especifica una consulta SQL que el pipeline se ejecuta periódicamente para exportar datos al almacén de objetos. Puede utilizar esta opción de exportación para compartir los datos más recientes de Autonomous Database en el almacén de objetos para que otras aplicaciones consuman los datos.
Un pipeline de exportación exporta datos de Autonomous Database al almacén de objetos. Al crear un pipeline de exportación, el pipeline se ejecuta a intervalos regulares y coloca los datos en el almacén de objetos.
Probar pipelines
RUN_PIPELINE_ONCE
para ejecutar un pipeline una vez bajo demanda sin crear un trabajo programado.
RUN_PIPELINE_ONCE
es útil para probar un pipeline antes de iniciar el pipeline. Después de ejecutar un pipeline una vez para probar el pipeline y comprobar que funciona como se esperaba, utilice RESET_PIPELINE
para restablecer el estado del pipeline (al estado antes de ejecutar RUN_PIPELINE_ONCE
).