Creación y configuración de pipelines
Puede crear uno o más pipelines de carga o exportación. Al crear un pipeline, se utilizan parámetros y se definen atributos de pipeline para configurar el pipeline.
A continuación, se muestran las opciones para crear y configurar un pipeline:
-
Cargar pipeline:
-
Exportar pipeline:
-
Exporte los resultados incrementales de una consulta al almacén de objetos mediante una columna de fecha o registro de hora como clave para realizar un seguimiento de los datos más recientes. Consulte Creación y configuración de un pipeline de exportación con columna de registro de hora.
-
Exporte los datos incrementales de una tabla al almacén de objetos mediante una columna de fecha o registro de hora como clave para realizar un seguimiento de los datos más recientes. Consulte Creación y configuración de un pipeline de exportación con columna de registro de hora.
-
Exportar datos de una tabla al almacén de objetos mediante una consulta para seleccionar datos sin una referencia a una columna de fecha o registro de hora (de modo que el pipeline exporte todos los datos que seleccione la consulta para cada ejecución del programador). Consulte Creación y configuración de un pipeline para exportar resultados de consultas (sin registro del tiempo).
-
Creación y configuración de un pipeline para la carga de datos
Puede crear un pipeline para cargar datos de archivos externos en el almacén de objetos o directorios en tablas de Autonomous AI Database.
Un pipeline de carga consume datos colocados en el almacén de objetos o en directorios y los carga en una tabla de Autonomous AI Database. Al crear un pipeline de carga, el pipeline se ejecuta a intervalos regulares para consumir datos colocados en la ubicación de origen, cuando llegan nuevos archivos de datos, el pipeline carga los nuevos datos. También puede utilizar un pipeline para copiar archivos de forma fiable, con capacidades de reanudación y reintento, desde la ubicación de cortesía hasta una tabla de la base de datos.
Con un pipeline de carga, el paquete de pipeline utiliza DBMS_CLOUD.COPY_DATA para cargar datos.
En su base de datos de IA autónoma, utilice una tabla existente o cree la tabla de base de datos en la que está cargando datos. Por ejemplo:
CREATE TABLE EMPLOYEE
(name VARCHAR2(128),
age NUMBER,
salary NUMBER);
Como alternativa, para definir el formato para JSON, puede utilizar el siguiente formato:
BEGIN
DBMS_CLOUD_PIPELINE.SET_ATTRIBUTE(
pipeline_name => 'MY_PIPE1',
attribute_name => 'format',
attribute_value => JSON_OBJECT('type' value 'json', 'columnpath' value '["$.NAME", "$.AGE", "$.SALARY"]')
);
END;
/
Creación y Configuración de un Pipeline para la Exportación con Columna de Registro de Hora
Con esta opción de pipeline de exportación se especifica una tabla o consulta SQL y una columna con un registro de hora que utiliza el pipeline para realizar un seguimiento de la hora de la última carga. Puede utilizar un pipeline de exportación para compartir datos para que los utilicen otras aplicaciones o para guardar datos en el almacén de objetos.
Con un pipeline de exportación, el paquete de pipeline utiliza DBMS_CLOUD.EXPORT_DATA para exportar datos.
Un pipeline de exportación exporta datos de su base de datos de IA autónoma al almacén de objetos. Al crear un pipeline de exportación, el pipeline se ejecuta a intervalos regulares y coloca los datos en el almacén de objetos.
Creación y configuración de un pipeline para exportar resultados de consultas (sin registro de hora)
Puede crear un pipeline de exportación para exportar automáticamente datos de su base de datos de IA autónoma al almacén de objetos. Mediante esta opción de pipeline de exportación, especifica una consulta SQL que el pipeline ejecuta periódicamente para exportar datos al almacén de objetos. Puede utilizar esta opción de exportación para compartir los datos más recientes de su base de datos de IA autónoma en el almacén de objetos para que otras aplicaciones consuman los datos.
Un pipeline de exportación exporta datos de su base de datos de IA autónoma al almacén de objetos. Al crear un pipeline de exportación, el pipeline se ejecuta a intervalos regulares y coloca los datos en el almacén de objetos.
Probar pipelines
RUN_PIPELINE_ONCE para ejecutar un pipeline una vez bajo demanda sin crear un trabajo programado.
RUN_PIPELINE_ONCE es útil para probar un pipeline antes de iniciar el pipeline. Después de ejecutar un pipeline una vez para probar el pipeline y comprobar que funciona como se esperaba, utilice RESET_PIPELINE para restablecer el estado del pipeline (al estado antes de ejecutar RUN_PIPELINE_ONCE).