Exportación de datos a Autonomous Database

En esta sección se detalla el proceso para exportar datos a una instancia de Autonomous Database y gestionar los pipelines de carga.
Nota

La configuración y el mantenimiento de la base de datos autónoma están fuera del ámbito de JMS. Consulte Autonomous Database siempre gratis para obtener más información.

Requisitos de configuración:

Antes de configurar y ejecutar pipelines de carga para los datos exportados a Autonomous Database, asegúrese de que se cumplen los siguientes requisitos:

  1. Definir privilegio de usuario de base de datos

    Si el usuario que llama a los scripts de pipeline de carga en Oracle Database Actions - SQL Console no es un administrador de OCI, un administrador debe otorgarles los privilegios de ejecución necesarios.

    GRANT EXECUTE ON DBMS_CLOUD_PIPELINE TO <user-name>; 
    GRANT READ,WRITE ON DIRECTORY DATA_PUMP_DIR TO <user-name>; 
    GRANT CREATE JOB TO <user-name>;
  2. Activar entidad de recurso

    En Oracle Database Actions - Consola SQL, como administrador, ejecute el siguiente comando para activar la entidad de recurso:

    EXEC DBMS_CLOUD_ADMIN.ENABLE_RESOURCE_PRINCIPAL();

    Si un usuario que no sea el administrador ejecuta el script de pipeline, como administrador, active la entidad de recurso para ese usuario ejecutando el siguiente comando:

    EXEC DBMS_CLOUD_ADMIN.ENABLE_RESOURCE_PRINCIPAL(username => '<user-name>');
  3. Creación de un grupo dinámico para la instancia de Autonomous Database de destino

    Crear un grupo dinámico con las siguientes reglas de coincidencia:

    ALL {resource.type = 'autonomousdatabase', resource.id = '<adb-ocid>'} 

    donde <adb-ocid> es el OCID de la instancia de Autonomous Database en la que se cargarán los datos.

  4. Otorgar acceso de política de entidad de recurso al cubo de Object Storage

    Cree una política para proporcionar a la entidad de recurso de Autonomous Database acceso a los archivos del cubo de almacenamiento de objetos de destino. Cree la siguiente política en el campo Políticas:

    ALLOW DYNAMIC-GROUP <dynamic-group-name> TO READ objects IN compartment <compartment-name> where target.bucket.name='<export-bucket-name>'
    
    donde:
    • <export-bucket-name> es el nombre del almacenamiento de objetos al que se exportan los datos del conjunto de JMS
    • <compartment-name> es el nombre del compartimento al que pertenece el cubo

Obtener script de pipeline de carga

El script de pipeline se puede obtener de la consola de Java Management Service:
  1. En el panel de control Conjunto, seleccione el conjunto cuyos datos exportados se deben cargar en Autonomous Database.
  2. Vaya a Configuración de exportación de datos y descargue el script de pipeline de carga de Autonomous Database.

Ejecutar script de pipeline

Copie el contenido del script y ejecútelo en Oracle Database Actions - Consola SQL.

El script de pipeline de carga ejecuta cuatro tareas principales:

  1. Crea tres tablas correspondientes a tres recursos de exportación. Si las tablas ya existen, no se crearán nuevas tablas:
    • Instancia gestionada
    • Instancia Gestionada y Tiempo de Ejecución Java
    • Instancia gestionada, Java Runtime y aplicación
  2. Crea y configura tres pipelines para sondear continuamente el cubo de almacenamiento de objetos de destino a intervalos regulares en busca de nuevos archivos CSV. Cuando se detectan nuevos archivos, los datos de esos archivos se cargan en la tabla correcta. Si los pipelines ya existen, no se crea ningún nuevo pipelines.
  3. Inicia los pipelines recién creados.
  4. Crea y activa un trabajo programado que se ejecuta semanalmente para comprobar si hay datos de exportación redundantes y eliminarlos.

Supervisión y gestión de pipelines existentes

Para supervisar todos los trabajos de pipeline activos, vaya a Oracle Database Actions y Programación.

También puede ejecutar la consulta en Oracle Database Actions - Consola SQL:

SELECT * FROM USER_CLOUD_PIPELINES WHERE PIPELINE_NAME LIKE 'JMS%'

Para obtener más información sobre cada trabajo ejecutado, consulte las tablas $STATUS y $LOG identificadas por su nombre de usuario en la nube.

Puede controlar un pipeline iniciando, parando, restableciendo o borrando el pipeline. Para obtener pasos detallados, consulte Pipelines de control.