runPipeline

Ejecuta un pipeline de Data Integration (organización de una serie de trabajos como un solo proceso) en función de las variables definidas para el pipeline. Para obtener información detallada sobre los pipelines, consulte Uso del pipeline en Administración de Data Integration para Oracle Enterprise Performance Management Cloud.

Se aplica a

Planning, Planning Modules, FreeForm, Financial Consolidation and Close, Enterprise Profitability and Cost Management, Tax Reporting, Sales Planning y Strategic Workforce Planning

Roles necesarios

El administrador del servicio o cualquier usuario configurado como usuario proxy para ejecutar una definición de pipeline (mediante la seguridad de la ubicación o mediante la especificación de la opción Activar ejecución de pipeline para usuarios no administradores de Configuración del sistema en ).

Sintaxis

epmautomate runPipeline PIPELINE_CODE [PARAMETER=VALUE], donde:
  • PIPELINE_CODE es un código definido al crear el pipeline en Data Integration. Para obtener más información, consulte Descripción del proceso del pipeline en Administración de Data Integration.
  • PARAMETER=VALUE, opcionalmente, identifica los parámetros y sus valores para ejecutar el pipeline. Especifique tantos pares de parámetro y valor como necesite el proceso.

    La lista de parámetros depende del número de variables definidas en la pantalla de variables de pipeline de Data Integration. Parámetros de pipeline predeterminados y valores aceptables:

    • STARTPERIOD El primer periodo durante el que se deben cargar los datos. Este nombre de período debe estar definido en la asignación de períodos de Data Integration.
    • ENDPERIOD El último periodo durante el que se deben cargar los datos. Este nombre de período debe estar definido en la asignación de períodos de Data Integration.
    • IMPORTMODE determina cómo se importan los datos en Data Integration. Los valores aceptables son los siguientes:
      • Append agrega los datos de PDV existentes a Data Integration.
      • Replace Suprime los datos del PDV y los reemplaza por los datos del archivo especificados en la definición del pipeline o como un parámetro.
      • Map and Validate Vuelve a procesar los datos con asignaciones actualizadas y cuentas lógicas sin importar los datos del archivo especificados en la definición del pipeline o como un parámetro.
      • No Import Omite la importación de datos en la tabla temporal de Data Integration.
    • EXPORTMODE determina cómo se exportan los datos en Data Integration. Los modos de exportación aceptables son
      • Merge Fusiona los datos en la tabla temporal de Data Integration con los datos existentes en el proceso de negocio.
      • Accumulate Agrega los datos de la tabla temporal de Data Integration en el proceso de negocio.

        Este modo de exportación se aplica solo a Planning, Planning Modules, FreeForm, Sales Planning y Strategic Workforce Planning.

      • Replace Borra los datos de PDV en el proceso de negocio y los reemplaza por los datos de la tabla temporal de Data Integration. Se borran los datos de las dimensiones Scenario, Version, Year, Period y Entity.
      • No Export Omite la exportación de datos de Data Integration en el proceso de negocio.
    • ATTACH_LOGS especifica si se van a comprimir y adjuntar los archivos de registro en las notificaciones relacionadas con la ejecución del pipeline. Los valores aceptables son Y para Sí y N para No.
    • SEND_MAIL especifica si se va a enviar un correo electrónico al finalizar la ejecución del pipeline. Los valores aceptables son los siguientes:: Always, No (valor predeterminado), On Failure y On Success.
    • SEND_TO es una lista separada por comas de ID de correo electrónico a la que se enviará el correo electrónico.

Ejemplo

epmautomate runPipeline DAILYLOAD "STARTPERIOD=Jan-24" "ENDPERIOD=Jan-24" "IMPORTMODE=Replace" "EXPORTMODE=Merge" "SEND_MAIL=Always" "SEND_TO=John.Doe@example.com, Jane.Doe@example.com" "ATTACH_LOGS=Y"