runPipeline

Executa um pipeline do Data Integration (orquestração de uma série de jobs como um único processo) com base nas variáveis ​​definidas para o pipeline. Para obter informações detalhadas sobre pipelines, consulte Como Usar o Pipeline em Administração do Data Integration para o Oracle Enterprise Performance Management Cloud.

Aplica-se a

Planning, Módulos do Planning, FreeForm, Financial Consolidation and Close, Enterprise Profitability and Cost Management, Tax Reporting, Sales Planning e Strategic Workforce Planning

Funções Necessárias

Administrador de Serviço ou qualquer usuário definido como um usuário proxy para executar uma definição de pipeline (usando a segurança de localização ou especificando a configuração Habilitar Execução de Pipeline para Usuários que Não São Admin da Configuração do Sistema como Sim).

Uso

epmautomate runPipeline PIPELINE_CODE [PARAMETER=VALUE], onde:
  • PIPELINE_CODE é um código definido durante a criação do pipeline no Data Integration. Para obter informações detalhadas, consulte Descrição do Processo de Pipeline in Como Administrar o Data Integration.
  • PARAMETER=VALUE, opcionalmente, identifica os parâmetros e seus valores para executar o pipeline. Especifique tantos pares de parâmetros e de valores quantos forem necessários para o processo.

    A lista de parâmetros depende do número de variáveis ​​definidas na tela Variável do Pipeline do Data Integration. Parâmetros de pipeline padrão e valores aceitáveis:

    • STARTPERIOD O primeiro período no qual os dados serão carregados. Esse nome de período deve ser definido no mapeamento de período da Integração de Dados.
    • ENDPERIOD O último período no qual os dados serão carregados. Esse nome de período deve ser definido no mapeamento de período da Integração de Dados.
    • IMPORTMODE determina como os dados são importados no Data Integration. Os valores aceitáveis são:
      • Append Adiciona aos dados PDV existentes no Data Integration.
      • Replace Exclui os dados do PDV e os substitui pelos dados do arquivo especificado na definição do pipeline ou como um parâmetro.
      • Map and Validate Reprocessa os dados com mapeamentos atualizados e contas lógicas sem importar os dados do arquivo especificado na definição do pipeline ou como um parâmetro.
      • No Import Ignora a importação de dados para a tabela intermediária do Data Integration.
    • EXPORTMODE determina como os dados são importados no Data Integration. Os modos de exportação aceitáveis são
      • Merge Mescla os dados na tabela intermediária do Data Integration com os dados existentes no processo de negócio.
      • Accumulate Adiciona os dados na tabela intermediária do Data Integration para o processo de negócio.

        O modo de exportação aplica-se somente ao Planning, Planning Modules, FreeForm, Sales Planning e Strategic Workforce Planning.

      • Replace Exclui os dados do PDV no processo de negócio e os substitui pelos dados da tabela intermediária do Data Integration. Os dados referentes às dimensões Cenário, Versão, Ano, Período e Entidade são limpos.
      • No Export Ignora a exportação de dados do Data Integration para o processo de negócio.
    • ATTACH_LOGS especifica se os arquivos de log devem ser compactados e anexados às notificações relacionadas à execução do pipeline. Os valores aceitáveis são S para S e N para Não.
    • SEND_MAIL especifica se um e-mail deve ser enviado após a conclusão da execução do pipeline. Os valores aceitáveis são: Always, No (default), On Failure e On Success.
    • SEND_TO é uma lista separada por vírgulas de IDs de e-mail para os quais o e-mail deve ser enviado.

Exemplo

epmautomate runPipeline DAILYLOAD "STARTPERIOD=Jan-24" "ENDPERIOD=Jan-24" "IMPORTMODE=Replace" "EXPORTMODE=Merge" "SEND_MAIL=Always" "SEND_TO=John.Doe@example.com, Jane.Doe@example.com" "ATTACH_LOGS=Y"