Intégrations d'automatisation pour Cloud EPM

Les intégrations prédéfinies suivantes sont disponibles :

Pour utiliser les intégrations Oracle Fusion Cloud Enterprise Performance Management prédéfinies, vous devez indiquer les paramètres correspondants. De nombreux paramètres pour les intégrations automatisées peuvent être sélectionnés dans des listes déroulantes, ce qui évite d'avoir à saisir manuellement les valeurs. Par exemple, pour exécuter une règle ou un ensemble de règles, vous pouvez sélectionner une règle métier dans une liste, par exemple ForceConsolidate ou ForceTranslate.

Pour obtenir une présentation des intégrations Task Manager, reportez-vous à la section Gestion des intégrations Task Manager.

Intégrations d'automatisation pour la plate-forme Cloud EPM

Nom de l'intégration / Module Module Description Paramètres / Description
Copier le fichier à partir de Tax Reporting Tous les services Cloud EPM, sauf Enterprise Data Management

Copie un fichier à partir du service actuel dans lequel Task Manager est configuré vers un autre service Cloud EPM.

Par exemple, si vous avez configuré Task Manager dans Tax Reporting, ainsi que la connexion Account Reconciliation, l'action Copier le fichier à partir de Tax Reporting copie le fichier à partir de Tax Reporting vers Account Reconciliation.

Nom du fichier : nom du fichier à copier.

Enregistrer le fichier sous : nom du fichier à enregistrer. Celui-ci peut être différent du nom du fichier d'origine.

Nom du répertoire externe (facultatif) : nom du répertoire.

Copier le fichier vers Tax Reporting Tous les services Cloud EPM, sauf Enterprise Data Management Copie un fichier vers le service actuel dans lequel Task Manager est configuré à partir d'un autre service Cloud EPM.

Nom du fichier : nom du fichier à copier.

Enregistrer le fichier sous : nom du fichier à enregistrer. Celui-ci peut être différent du nom du fichier d'origine.

Nom du répertoire externe (facultatif) : nom du répertoire.

Supprimer le fichier à partir de Tax Reporting Tous les services Cloud EPM, sauf Enterprise Data Management Supprime un fichier d'un service Cloud EPM.

Nom du fichier : nom du fichier à supprimer.

Verrouiller/déverrouiller l'intégration de données Tous les services Cloud EPM, sauf Enterprise Data Management Verrouille ou déverrouille l'intégration d'un emplacement, d'une catégorie et d'une période dans Echange de données. Il s'agit d'une intégration automatisée de processus.

Opération : choisissez entre le verrouillage et le déverrouillage.

Type de verrouillage : indiquez si l'opération de verrouillage/déverrouillage est destinée à une application ou à un emplacement.

Période : indiquez la période du PDV à partir de l'intégration ou de la règle de chargement des données définie dans Echange de données, par exemple, "Jan-21".

Catégorie : indiquez la valeur de scénario prédéfinie reposant sur la catégorie de PDV de la définition d'intégration (règle de données). Les catégories disponibles sont celles qui sont créées dans la configuration de l'intégration des données, comme "Réel".

Application (facultatif) : si vous avez choisi le type de verrouillage Application, indiquez le nom de l'application, par exemple, "Vision".

Emplacement (facultatif) : si vous avez choisi le type de verrouillage Emplacement, indiquez le nom de l'emplacement. Si l'emplacement est verrouillé, vous ne pouvez pas charger de données vers celui-ci.

Déverrouiller par emplacement (facultatif) : vous pouvez définir ce paramètre lorsque vous sélectionnez l'opération de verrouillage et que l'emplacement choisi est une application.

Si vous sélectionnez ce paramètre lors du verrouillage de l'application cible, le système verrouille toutes les règles contenues dans l'emplacement sous l'application cible plutôt que de procéder au verrouillage au niveau de l'application.

Pour plus d'informations, reportez-vous à la section Verrouillage et déverrouillage d'un PDV dans le guide API REST.
Exécuter l'intégration des données Tous les services Cloud EPM, sauf Enterprise Profitability and Cost Management Exécute une intégration ou une règle de chargement des données en fonction de la manière dont les périodes sont traitées et des filtres source. Cette opération permet d'intégrer aisément les chargements de données définis dans Echange de données à l'échéancier de traitement mensuel.

Type de job : Intégration.

Nom d'intégration : nom de l'intégration définie dans l'intégration des données.

Nom de la période : nom de la période.

Mode d'import : détermine le mode d'import des données dans l'intégration des données.

Mode d'export : détermine le mode d'export des données dans l'intégration des données.

Nom du fichier : uniquement applicable aux chargements de données basés sur des fichiers natifs ; ignoré si spécifié pour d'autres chargements.

Filtres source : paramètre utilisé afin de mettre à jour les filtres source définis pour la règle de chargement des données ou l'intégration.

Options cible : paramètre utilisé afin de mettre à jour les options cible définies pour la règle de chargement des données ou l'intégration.

Mode d'exécution : uniquement applicable aux intégrations en mode rapide.

Pour plus de détails sur ces paramètres, reportez-vous à la section Exécution d'intégrations dans le guide API REST.
Exécuter le pipeline Tous les services Cloud EPM, sauf Enterprise Data Management et Account Reconciliation Exécute un pipeline selon les variables et les paramètres de job sélectionnés.

Type de job : Pipeline.

Nom du job : code défini pour le pipeline dans l'intégration des données.

Période de début : première période pour laquelle les données doivent être chargées. Ce nom de période doit être défini dans le mapping de période de l'intégration des données.

Période de fin : dernière période pour laquelle les données doivent être chargées. Ce nom de période doit être défini dans le mapping de période de l'intégration des données.

Mode d'import : détermine le mode d'import des données dans l'intégration des données.

Mode d'export : détermine le mode d'export des données dans l'intégration des données.

Joindre des journaux : indique si des journaux sont inclus sous forme de pièce jointe dans un courriel.

Envoyer un courriel : détermine à quel moment envoyer un courriel lors de l'exécution du pipeline.

Destinataire : détermine l'ID d'adresse électronique du destinataire de la notification par courriel.

Pour plus de détails sur ces paramètres, reportez-vous à la section Exécution d'un pipeline dans le guide API REST.

Reportez-vous également à la section Copie et suppression de fichiers d'intégration.

Intégrations d'automatisation pour Account Reconciliation

Nom de l'intégration / Module Module Description Paramètres / Description
Modifier le statut de période Conformité de rapprochement Modifie le statut d'une période (Ouvert, Fermé, En attente, Verrouillé).

Period : nom de la période

Status : En attente, Ouvert, Fermé, Verrouillé

Créer des rapprochements de fin de période Conformité de rapprochement Copie tous les profils sélectionnés dans une période et renvoie un statut d'échec ou de réussite.

Period : nom de la période

Filter : nom du filtre qui correspond au rapprochement

Importer des soldes Conformité de rapprochement Importe des données de solde à l'aide de Data Management, à partir d'une définition de chargement de données créée précédemment.

Period : nom de la période

dl_Definition: : nom au format DL_name d'un chargement de données enregistré précédemment, par exemple DL_test

Importer les soldes pré-mappés Conformité de rapprochement Importe des soldes pré-mappés.

Period : nom de la période

BalanceType : SUB|SRC pour le sous-système ou le système source

CurrencyBucket : catégorie de devise, par exemple Functional

File : nom du fichier associé à la boîte de réception, par exemple balances.csv. Le fichier a été chargé vers Account Reconciliation à l'aide d'EPM Automate ou de l'API REST.

Importer les transactions pré-mappées Conformité de rapprochement Importe des transactions pré-mappées pour une période particulière.

TransactionType : les types de transaction autorisés sont BEX (Solde expliqué), SRC (Ajustement avec le système source) et SUB (Ajustement avec le sous-système).

File : nom du fichier associé à la boîte de réception, par exemple transactions.csv. Le fichier a été chargé vers Account Reconciliation à l'aide d'EPM Automate ou de l'API REST.

DateFormat : format de la date, tel que MM/dd/yyyy, dd/MM/yyyy, dd-MMM-yy, MMM d.yyyy ou All.

Importer les transactions pré-mappées Correspondance de transactions Importe un fichier de transactions pré-mappées dans la correspondance de transactions.

DataSource : ID de texte de la source de données où la transaction sera importée

File : nom du fichier associé à la boîte de réception, par exemple transactions.csv. Le fichier a été chargé vers Account Reconciliation à l'aide d'EPM Automate ou de l'API REST.

ReconciliationType : ID de texte du type de rapprochement où le fichier de transaction sera importé, tel que Bank to GL.

DateFormat : format de la date, tel que MM/dd/yyyy, dd/MM/yyyy, MM-dd-yyyy, d-M-yyyy, dd-MMM-yy, MMM d, yyyy

Importer des profils Conformité de rapprochement Importe des profils pour une période particulière.

ImportType : type d'import. Les valeurs prises en charge sont Replace et ReplaceAll

Period : période concernée par l'import

ProfileType : type de profil. Les valeurs prises en charge sont Profiles et Children.

File : nom du fichier associé à la boîte de réception, par exemple profiles.csv. Le fichier a été chargé vers Account Reconciliation à l'aide d'EPM Automate ou de l'API REST.

DateFormat : format de la date, tel que MM/dd/yyyy, dd/MM/yyyy, d-M-yyyy, dd-MMM-yy, MMM d, yyyy ou All

Importer les taux Conformité de rapprochement Importe des taux pour une période spécifique et un type de taux.

Period : nom de la période

RateType : type de taux, tel qu'Accounting

Importer les taux (Conformité de rapprochement)

File : nom du fichier associé à la boîte de réception, par exemple rates.csv. Le fichier a été chargé vers Account Reconciliation à l'aide d'EPM Automate ou de l'API REST.

ImportType : les types d'import pris en charge sont Replace et ReplaceAll.

Surveiller les rapprochements Conformité de rapprochement Surveille la liste des rapprochements dans ARCS.

Period : nom de la période

Filter : chaîne de filtre utilisée pour interroger la liste des rapprochements

Exécuter la correspondance automatique Correspondance de transactions Exécute le processus de correspondance automatique dans la correspondance de transactions.

ReconTypeId: : ID de texte du type de rapprochement auquel appliquer une correspondance automatique

Afficher les rapprochements Conformité de rapprochement Affiche les rapprochements sur une période spécifiée.

Period : nom de la période

Liste enregistrée : nom d'une liste enregistrée publique

Afficher les transactions Correspondance de transactions Affiche les transactions sur une période spécifiée.

Period : nom de la période

Liste enregistrée : nom d'une liste enregistrée publique

Intégrations d'automatisation pour Enterprise Data Management

Nom de l'intégration Description Paramètres / Description

Exporter la dimension

Exporte une dimension d'Enterprise Data Management vers une connexion configurée. Il s'agit d'une intégration automatisée de processus. Reportez-vous à Ajout d'intégrations prédéfinies dans Cloud EPM.

Application : nom de l'application Enterprise Data Management à partir de laquelle exporter la dimension.

Dimension : nom de la dimension à exporter.

Connexion : facultatif. Nom de la connexion vers laquelle exporter la dimension.

Nom du fichier : fichier et chemin à partir desquels exporter la dimension.

Exporter le mapping de dimension

Exporte un mapping de dimension d'Enterprise Data Management vers une connexion configurée. Il s'agit d'une intégration automatisée de processus.

Application : nom de l'application Enterprise Data Management à partir de laquelle exporter le mapping de dimension.

Dimension : nom du mapping de dimension à exporter.

Connexion : facultatif. Nom de la connexion vers laquelle exporter le mapping de dimension.

Emplacement du mapping : emplacement vers lequel exporter le mapping de dimension.

Nom du fichier : fichier et chemin à partir desquels exporter le mapping de dimension.

Importer la dimension

Importe une dimension d'une connexion configurée vers une application Enterprise Data Management. Il s'agit d'une intégration automatisée de processus. Reportez-vous à Ajout d'intégrations prédéfinies dans Cloud EPM.

Application : nom de l'application Enterprise Data Management vers laquelle importer la dimension.

Dimension : nom de la dimension à importer.

Connexion : nom de la connexion à partir de laquelle importer la dimension.

Nom du fichier : fichier et chemin à partir desquels importer la dimension.

Option d'import : facultatif. Détermine le mode d'import des données dans Enterprise Data Management.

Extraire la dimension Extrait une dimension d'Enterprise Data Management vers une connexion configurée. Il s'agit d'une intégration automatisée de processus.

Application : nom de l'application Enterprise Data Management à partir de laquelle extraire la dimension.

Dimension : nom de la dimension à extraire.

Extraction : nom de l'extraction.

Connexion : nom de la connexion vers laquelle extraire la dimension.

Nom du fichier : fichier et chemin à partir desquels extraire la dimension.

Intégrations d'automatisation pour Enterprise Profitability and Cost Management

Nom de l'intégration Description Paramètres / Description
Calculer le modèle Calcule un modèle pour un ou plusieurs point(s) de vue.

Type de job : Calculer le modèle

Nom du job : nom du job

Séparateur de PDV : séparateur utilisé dans les valeurs de PDV. Le séparateur par défaut est _ (trait de soulignement). Le séparateur doit être placé entre guillemets. Seuls les séparateurs suivants sont pris en charge :

  • _ (trait de soulignement)

  • # (dièse)

  • & (esperluette)

  • ~ (tilde)

  • % (pourcentage)

  • ; (point-virgule)

  • : (deux-points)

  • - (tiret)

Nom du PDV : nom du PDV à calculer. Vous pouvez transmettre un PDV ou plusieurs, séparés par une virgule (,).

Nom du modèle : nom du modèle à calculer

Type d'exécution : identifie le type d'exécution de règle

Tâche de surveillance : surveille une autre application en attendant qu'une action survienne ou qu'un statut soit attribué

Nom de la règle : nom de la règle unique à exécuter

Numéro de séquence du premier ensemble de règles : numéro de séquence de la première règle dans l'ensemble de règles à exécuter

Numéro de séquence du dernier ensemble de règles : numéro de séquence de la dernière règle dans l'ensemble de règles à exécuter

Effacer les calculs existants : permet d'indiquer si les calculs existants doivent être effacés

Exécuter les calculs : permet d'indiquer si les calculs doivent être exécutés

Optimiser pour le reporting : permet d'indiquer si le processus de calcul doit être optimisé pour le reporting

Générer des scripts de débogage : permet d'indiquer si des scripts de débogage doivent être générés

Commentaire : commentaires décrivant le job

Effacer le cube Efface des données spécifiques dans les cubes PCM_CLC and PCM_REP.

Type de job : Effacer le cube

Nom du job : nom du job

Effacement de données par point de vue Efface les données d'un point de vue sans enlever le point de vue.

Type de job : Effacer le PDV

Nom du job : nom du job

Séparateur de PDV : séparateur utilisé dans les valeurs de PDV. Le séparateur doit être placé entre guillemets. Outre la virgule, seuls les séparateurs suivants sont pris en charge :

  • _ (trait de soulignement)

  • # (dièse)

  • & (esperluette)

  • ~ (tilde)

  • % (pourcentage)

  • ; (point-virgule)

  • : (deux-points)

  • - (tiret)

Nom du PDV : nom du PDV à effacer.

Nom du cube : nom du cube sur lequel l'opération d'effacement doit être exécutée

Effacer les données d'entrée : permet d'indiquer si les données d'entrée doivent être effacées

Effacer les données allouées : permet d'indiquer si les données allouées doivent être effacées

Effacer les données d'ajustement : permet d'indiquer si les données d'ajustement doivent être effacées

Copie de données par point de vue Copie les données d'un point de vue vers un autre.

Type de job : Copier le PDV

Nom du job : nom du job

Séparateur de PDV : séparateur utilisé dans les valeurs de PDV. Le séparateur doit être placé entre guillemets. Outre la virgule, seuls les séparateurs suivants sont pris en charge :

  • _ (trait de soulignement)

  • # (dièse)

  • & (esperluette)

  • ~ (tilde)

  • % (pourcentage)

  • ; (point-virgule)

  • : (deux-points)

  • - (tiret)

PDV source : nom du PDV source

PDV de destination : nom du PDV de destination

Type de copie : indique les données à copier à partir de la source

Nom du cube source : nom du cube source

Nom du cube de destination : nom du cube de destination

Actualisation de cube

Actualise le cube OLAP.

Type de job : Actualisation de cube

Nom du job : nom du job

Exporter les données Exporte des données d'application dans un fichier à l'aide des paramètres d'export de données, y compris le nom de fichier, indiqués dans un job de type export data. Le fichier contenant les données exportées est stocké dans le référentiel.

Type de job : Exporter les données

Nom du job : nom du job

Nom du fichier d'export : nom du fichier où les données doivent être exportées

Exporter le mapping de données

Exporte un mapping de données défini dans Data Management vers un emplacement spécifié. Il s'agit d'une intégration automatisée de processus. Pour plus d'informations, reportez-vous à la section Ajout d'intégrations prédéfinies dans Cloud EPM.

Les mappings de membre définissent les relations entre les membres source et les membres de dimension cible dans une même dimension.

Type de job : Exporter le mapping de données

Dimension : nom d'une dimension donnée à importer, par exemple ACCOUNT ou ALL pour importer toutes les dimensions

Nom du fichier : fichier et chemin à partir desquels exporter les mappings. Le format de fichier peut être .csv, .txt, .xls ou .xlsx. Le chemin du fichier comprend la boîte d'envoi, par exemple, outbox/BESSAPPJan-06.csv.

Nom de l'emplacement : nom de l'emplacement vers lequel effectuer l'export

Exporter les métadonnées Exporte les métadonnées d'un fichier du référentiel dans l'application à l'aide des paramètres d'export de métadonnées indiqués dans un job de type Exporter les données.

Type de job : Exporter les métadonnées

Nom du job : nom d'un lot défini dans l'export de métadonnées

Nom du fichier ZIP d'export : nom du fichier ZIP des métadonnées exportées

Importer les données Importe les données d'un fichier du référentiel dans l'application à l'aide des paramètres d'import de données indiqués dans un job de type Importer les données.

Type de job : Importer les données

Nom du job : nom du job

Nom du fichier d'import : nom du fichier à partir duquel les données doivent être importées

Importer le mapping de données

Importe un mapping de données défini dans Data Management vers un emplacement spécifié. Il s'agit d'une intégration automatisée de processus.

Les mappings de membre définissent les relations entre les membres source et les membres de dimension cible dans une même dimension.

Vous pouvez importer les mappings de membre à partir d'un fichier Excel, .csv ou .txt sélectionné.

Type de job : Importer le mapping de données

Dimension : nom d'une dimension spécifique à importer, par exemple ACCOUNT, ou ALL pour importer toutes les dimensions

Nom du fichier : fichier et chemin à partir desquels importer les mappings. Le format de fichier peut être .csv, .txt, .xls ou .xlsx. Le fichier doit être chargé avant l'import, soit vers la boîte de réception soit vers un sous-répertoire de la boîte de réception. Le chemin du fichier comprend la boîte de réception, par exemple, inbox/BESSAPPJan-06.csv.

Mode d'import : MERGE pour ajouter de nouvelles règles ou remplacer des règles existantes, ou REPLACE pour effacer les règles de mapping précédentes avant l'import

Mode de validation : permet d'indiquer si le mode de validation doit être utilisé (True ou False). Une entrée True valide les membres cible par rapport à l'application cible. False charge le fichier de mapping sans aucune validation. Le processus de validation consomme beaucoup de ressources et davantage de temps que le mode de validation false ; l'option sélectionnée par la plupart des clients est false.

Emplacement : emplacement Data Management où les règles de mapping doivent être chargées. Les règles de mapping sont propres à un emplacement dans Data Management.

Importer les métadonnées Importe les métadonnées d'un fichier du référentiel dans l'application à l'aide des paramètres d'import de métadonnées indiqués dans un job de type Importer les métadonnées.

Type de job : Importer les métadonnées

Nom du job : nom d'un lot défini dans l'import de métadonnées

Nom du fichier ZIP d'import : nom du fichier ZIP des métadonnées importées

Verrouiller/déverrouiller l'intégration de données Verrouille ou déverrouille l'intégration d'un emplacement, d'une catégorie et d'une période dans Echange de données. Il s'agit d'une intégration automatisée de processus.

Type de job : Verrouiller/déverrouiller l'intégration de données

Opération : verrouillage ou déverrouillage

Type de verrouillage : permet d'indiquer si l'opération de verrouillage/déverrouillage est destinée à une application ou à un emplacement

Période : période du PDV de l'intégration ou de la règle de chargement de données définie dans Echange de données, par exemple, "Jan-21"

Catégorie : valeur de scénario prédéfinie reposant sur la catégorie de PDV de la définition d'intégration (règle de données). Les catégories disponibles sont celles qui sont créées dans la configuration de l'intégration des données, comme "Réel".

Application (facultatif) : si vous avez choisi le type de verrouillage Application, nom de l'application ; par exemple, "Vision".

Emplacement (facultatif) : si vous avez choisi le type de verrouillage Emplacement, nom de l'emplacement. Si l'emplacement est verrouillé, vous ne pouvez pas charger de données vers celui-ci.

Déverrouiller par emplacement (facultatif) : vous pouvez définir ce paramètre lorsque vous sélectionnez l'opération de verrouillage et que l'emplacement choisi est une application.

Si vous sélectionnez ce paramètre lors du verrouillage de l'application cible, le système verrouille toutes les règles contenues dans l'emplacement sous l'application cible plutôt que de procéder au verrouillage au niveau de l'application.

Pour plus d'informations, reportez-vous à la section Verrouillage et déverrouillage d'un PDV dans le guide API REST.
Exécuter un lot Exécute un lot de jobs définis dans Data Management

Type de job : Exécuter un lot

Nom du lot : nom du lot à exécuter, tel que Chemin de mapping de dimension pour PDV (Dimension, Catégorie, Période)

Type de format de rapport : format de fichier du rapport (PDF, XLSX ou HTML)

Paramètres : leur nombre et leur valeur peuvent varier en fonction du rapport

Location: : emplacement du rapport, par exemple Comma_Vision

Exécuter comme : précisez ce paramètre dans l'onglet Workflow.

Exécuter une règle métier Lance une règle métier.

Type de job : Exécuter une règle métier

Nom de la règle : nom de la règle métier.

Paramètres : invites d'exécution dans la syntaxe JSON. Le nom du paramètre doit être le même que celui défini dans la définition de la règle. Par exemple :

{"MyScenario1":"Current", "MyVersion1":"BU Version_1", "ToEntity":"CA",

"Rule_Level_Var":"AZ", "planType":"Plan1"}

Le format suivant est également pris en charge :

"Scenario=Actual" "Entity=Total Geography" "Year=FY21" "Period=Apr"

Exécuter un ensemble de règles métier Lance un ensemble de règles métier. Les ensembles de règles sans invite d'exécution ou avec des invites d'exécution avec des valeurs par défaut seront pris en charge.

Type de job : Exécuter un ensemble de règles métier

Nom du job : nom du job

Nom d'ensemble de règles : nom de l'ensemble de règles métier

Paramètres : invites d'exécution dans la syntaxe JSON. Le nom du paramètre doit être le même que celui défini dans la définition de la règle. Par exemple :

{"MyScenario1":"Current", "MyVersion1":"BU Version_1", "ToEntity":"CA",

"Rule_Level_Var":"AZ", "planType":"Plan1"}

Le format suivant est également pris en charge :

"Scenario=Actual" "Entity=Total Geography" "Year=FY21" "Period=Apr"

Exécuter l'intégration des données Exécute une intégration ou une règle de chargement des données en fonction de la manière dont les périodes sont traitées et des filtres source. Cette opération permet d'intégrer aisément les chargements de données définis dans Echange de données à l'échéancier de traitement mensuel.

Type de job : Exécuter l'intégration des données

Nom d'intégration : nom de l'intégration, défini dans l'intégration des données

Nom de la période : nom de la période

Mode d'import : détermine le mode d'import des données dans l'intégration des données

Mode d'export : détermine le mode d'export des données dans l'intégration des données

Nom du fichier : uniquement applicable aux chargements de données basés sur des fichiers natifs ; ignoré si spécifié pour d'autres chargements

Filtres source : paramètre utilisé afin de mettre à jour les filtres source définis pour la règle de chargement de données ou l'intégration

Options cible : paramètre utilisé afin de mettre à jour les options cible définies pour la règle de chargement de données ou l'intégration

Mode d'exécution : uniquement applicable aux intégrations en mode rapide

Pour plus de détails sur ces paramètres, reportez-vous à la section Exécution d'intégrations dans le guide API REST.
Exécuter une règle de données Exécute une règle de chargement des données de la gestion des données en fonction de la période de début et de fin, ainsi que des options d'import ou d'export indiquées.

Type de job : Exécuter la règle de données

Nom de la règle de données : nom d'une règle de chargement de données définie dans Data Management

Période de début : première période pour laquelle les données doivent être chargées. Ce nom de période doit être défini dans le mapping de période de la gestion des données.

Période de fin : dernière période pour laquelle les données doivent être chargées. Ce nom de période doit être défini dans le mapping de période de la gestion des données.

Mode d'import : détermine le mode d'import des données dans Data Management:

  • APPEND pour un ajout à la règle existante

  • données de PDV existantes dans Data Management

  • REPLACE pour supprimer les données de PDV et les remplacer par celles du fichier.

  • RECALCULATE pour ignorer l'import des données, mais retraiter les données avec les comptes logiques et les mappings mis à jour.

  • NONE pour ignorer l'import des données dans la table intermédiaire de gestion des données.

Mode d'export : détermine le mode d'export des données dans Data Management:

  • STORE_DATA pour fusionner les données de la table intermédiaire Data Management avec les données Financial Consolidation and Close ou Tax Reporting existantes.

  • ADD_DATA pour ajouter les données de la table intermédiaire Data Management à Financial Consolidation and Close ou Tax Reporting.

  • SUBTRACT_DATA pour soustraire les données de la table intermédiaire Data Management des données Financial Consolidation and Close ou Tax Reporting existantes.

  • REPLACE_DATA pour effacer les données de PDV et les remplacer par des données dans la table intermédiaire de gestion des données. Les données sont effacées pour Scénario, Version, Année, Période et Entité.

  • NONE pour ignorer l'export des données de Data Management vers Financial Consolidation and Close ou Tax Reporting.

Nom du fichier : si vous n'indiquez aucun nom de fichier, l'API importe les données contenues dans le fichier spécifié dans la règle de chargement de données. Le fichier de données doit déjà résider dans la boîte de réception avant l'exécution de la règle de données.

Exécuter comme : précisez ce paramètre dans l'onglet Workflow.

Exécuter le pipeline Exécute un pipeline selon les variables et les paramètres de job sélectionnés.

Type de job : Pipeline

Nom du job : code défini pour le pipeline dans l'intégration des données

Période de début : première période pour laquelle les données doivent être chargées. Ce nom de période doit être défini dans le mapping de période de l'intégration des données.

Période de fin : dernière période pour laquelle les données doivent être chargées. Ce nom de période doit être défini dans le mapping de période de l'intégration des données.

Mode d'import : détermine le mode d'import des données dans l'intégration des données

Mode d'export : détermine le mode d'export des données dans l'intégration des données

Joindre des journaux : permet d'indiquer si des journaux sont inclus sous forme de pièces jointes dans un courriel

Envoyer un courriel : détermine à quel moment envoyer un courriel lors de l'exécution du pipeline

Destinataire : détermine l'ID d'adresse électronique du destinataire de la notification par courriel

Pour plus de détails sur ces paramètres, reportez-vous à la section Exécution d'un pipeline dans le guide API REST.

Intégrations d'automatisation pour Financial Consolidation and Close et Tax Reporting

Nom de l'intégration Description Paramètres / Description
Effacer le cube

Remarque : cette intégration s'applique uniquement à Tax Reporting.

Efface des données spécifiques dans les cubes de reporting et d'entrée. Nom : nom du job d'effacement de cube.

Copier les données de participation vers l'année suivante

Automatise la tâche de copie des données de participation de la dernière période d'une année vers la première de l'année suivante. Pour plus d'informations, reportez-vous à la section copyOwnershipDataToNextYear dans le guide Utilisation d'EPM Automate.

Scénario : nom du scénario, par exemple Réel, sélectionnable.

Années : sélectionnable.

Actualisation de cube

Actualise le cube OLAP.

Nom : nom du job d'actualisation de cube.

Effacer les données

Exécute un job d'effacement de données à l'aide du nom de profil. Pour plus d'informations sur l'utilisation de l'effacement de données dans Financial Consolidation and Close, reportez-vous à la section Effacer les données du guide API REST. Pour plus d'informations sur l'utilisation de l'effacement de données dans Tax Reporting, reportez-vous à la section Effacer les données du guide API REST.

Nom du profil : nom du profil d'effacement de données.

Copier les données

Exécute un job de copie de données à l'aide du nom de profil.

Nom du profil : nom du profil de copie de données.

Exporter les données

Exporte des données d'application dans un fichier à l'aide des paramètres d'export de données, y compris le nom de fichier, indiqués dans un job de type export data. Le fichier contenant les données exportées est stocké dans le référentiel.

Nom : nom du job d'export de données.

Nom du fichier d'export : facultatif. Nom du fichier où les données doivent être exportées.

Exporter le mapping de données

Exporte un mapping de données défini dans Data Management vers un emplacement spécifié. Il s'agit d'une intégration automatisée de processus. Pour plus d'informations, reportez-vous à la section Ajout d'intégrations prédéfinies dans Cloud EPM.

Les mappings de membre définissent les relations entre les membres source et les membres de dimension cible dans une même dimension.

Dimension : nom d'une dimension donnée à importer, par exemple ACCOUNT ou ALL pour importer toutes les dimensions.

Nom du fichier : fichier et chemin à partir desquels exporter les mappings. Le format de fichier peut être .csv, .txt, .xls ou .xlsx. Le chemin du fichier comprend la boîte d'envoi. Exemple : outbox/BESSAPPJan-06.csv.

Nom de l'emplacement : nom de l'emplacement vers lequel effectuer l'export.

Exporter les données de participation

Automatise la tâche d'export des données de participation à partir d'une entité vers un fichier CSV d'éléments séparés par des virgules. Pour plus d'informations, reportez-vous à la section exportOwnershipData dans le guide Utilisation d'EPM Automate.

Entité : nom de l'entité.

Scenario : nom du scénario, par exemple Actual. Sélectionnable.

Années : sélectionnable.

Period : nom de la période, par exemple January. Sélectionnable.

Nom du fichier : nom du fichier à exporter.

Importer les données

Importe les données d'un fichier du référentiel dans l'application à l'aide des paramètres d'import de données indiqués dans un job de type Importer les données.

Nom : nom du job d'import de données.

Nom du fichier d'import : facultatif. Nom du fichier à partir duquel les données doivent être importées.

Importer le mapping de données

Importe un mapping de données défini dans Data Management vers un emplacement spécifié. Il s'agit d'une intégration automatisée de processus.

Les mappings de membre définissent les relations entre les membres source et les membres de dimension cible dans une même dimension.

Vous pouvez importer les mappings de membre à partir d'un fichier Excel, .csv ou .txt sélectionné.

Type de job : type de job, MAPPINGIMPORT.

Nom du job : nom d'une dimension donnée à importer, par exemple ACCOUNT ou ALL pour importer toutes les dimensions.

Nom du fichier : fichier et chemin à partir desquels importer les mappings. Le format de fichier peut être .csv, .txt, .xls ou .xlsx. Le fichier doit être chargé avant l'import, soit vers la boîte de réception soit vers un sous-répertoire de la boîte de réception. Le chemin du fichier comprend la boîte de réception, par exemple, inbox/BESSAPPJan-06.csv.

Mode d'import : MERGE pour ajouter de nouvelles règles ou remplacer des règles existantes, ou REPLACE pour effacer les règles de mapping précédentes avant l'import.

Mode de validation : permet d'indiquer si le mode de validation doit être utilisé (True ou False). Une entrée True valide les membres cible par rapport à l'application cible. False charge le fichier de mapping sans aucune validation. Le processus de validation consomme beaucoup de ressources et davantage de temps que le mode de validation false ; l'option sélectionnée par la plupart des clients est false.

Nom de l'emplacement : emplacement de Data Management où les règles de mapping doivent être chargées. Les règles de mapping sont propres à un emplacement dans Data Management.

Importer les métadonnées

Importe les métadonnées d'un fichier du référentiel dans l'application à l'aide des paramètres d'import de métadonnées indiqués dans un job de type Importer les métadonnées.

Nom : nom d'un lot défini dans l'import de métadonnées.

Importer les données de participation

Automatise la tâche d'import des données de participation à partir d'un fichier CSV disponible dans l'environnement vers une période. Pour plus d'informations, reportez-vous à la section importOwnershipData dans le guide Utilisation d'EPM Automate.

Scenario : nom du scénario, par exemple Actual. Sélectionnable.

Années : sélectionnable.

Period : nom de la période, par exemple January. Sélectionnable.

Nom du fichier : nom du fichier à importer.

Période de journal

Ouvre ou ferme automatiquement une période de journal.

Le système ferme la période uniquement s'il n'y a aucun journal approuvé ou non imputé. S'il existe des journaux approuvés ou non imputés, le système ne ferme pas la période et renvoie une erreur.

S'il existe des journaux non imputés dont le statut est En cours ou Soumis, le système ferme la période avec un avertissement.

Scenario : nom du scénario, par exemple Actual

Year : année, par exemple FY20

Period : nom de la période, par exemple January

Action : ouverture ou fermeture

Surveiller les journaux Enterprise

Remarque : cette intégration s'applique uniquement à Financial Consolidation and Close.

Surveille le statut de réalisation des journaux sur une année/période ou dans la liste filtrée.

Année : facultatif. Année, par exemple, 2022. Sélectionnable.

Période : facultatif. Nom de la période, par exemple Janvier. Sélectionnable.

Nom du filtre : facultatif. Nom du filtre que vous avez créé pour surveiller le statut des journaux Enterprise.

Remarque : bien que tous les paramètres soient facultatifs, vous devez spécifier au moins un nom de filtre, ou une année et une période.

Recalculer les données de participation

Automatise la tâche de recalcul des données de participation. Pour plus d'informations, reportez-vous à la section recomputeOwnershipData dans le guide Utilisation d'EPM Automate.

Scenario : nom du scénario, par exemple Actual

Années : année concernée, telle que FY20

Period : nom de la période, par exemple January

Exécuter une règle de lot

Exécute un lot de jobs définis dans Data Management.

Nom : nom du rapport à exécuter, tel que Chemin de mapping de dimension pour PDV (Dimension, Catégorie, Période)

Type de format de rapport : format de fichier du rapport (PDF, XLSX ou HTML)

Paramètres : leur nombre et leur valeur peuvent varier en fonction du rapport

Location: : emplacement du rapport, par exemple Comma_Vision

Exécuter comme : vous devez préciser ce paramètre dans l'onglet Workflow.

Exécuter une règle métier

Lance une règle métier.

Nom : nom d'une règle métier exactement tel que défini.

Paramètres : invites d'exécution dans la syntaxe JSON. Le nom du paramètre doit être exactement le même que celui défini dans la définition de la règle. Par exemple :

{ "MyScenario1":"Current", "MyVersion1":"BU Version_1", "ToEntity":"CA",

"Rule_Level_Var":"AZ", "planType":"Plan1"}

Le format suivant est également pris en charge, par exemple :

"Scenario=Actual" "Entity=Total Geography" "Year=FY21" "Period=Apr"

Exécuter un ensemble de règles métier

Lance un ensemble de règles métier. Les ensembles de règles sans invite d'exécution ou avec des invites d'exécution avec des valeurs par défaut seront pris en charge.

Nom : nom d'un ensemble de règles métier exactement tel que défini.

Paramètres : invites d'exécution dans la syntaxe JSON. Le nom du paramètre doit être exactement le même que celui défini dans la définition de la règle. Par exemple :

{ "MyScenario1":"Current", "MyVersion1":"BU Version_1", "ToEntity":"CA",

"Rule_Level_Var":"AZ", "planType":"Plan1"}

Le format suivant est également pris en charge, par exemple :

"Scenario=Actual" "Entity=Total Geography" "Year=FY21" "Period=Apr"

Exécuter la consolidation

Il s'agit d'une tâche d'utilitaire permettant d'exécuter une consolidation. La tâche invite l'utilisateur à entrer les paramètres pour l'exécution des tâches, tels que Scénario, Année, Période et Entité.

Scénario

Année

Période

Entité : vous pouvez ajouter plusieurs entités avec un séparateur sous forme de virgule.

Exécuter une règle de données

Exécute une règle de chargement des données de la gestion des données en fonction de la période de début et de fin, ainsi que des options d'import ou d'export indiquées.

Nom du job : nom d'une règle de chargement de données définie dans Data Management.

Période de début : première période pour laquelle les données doivent être chargées. Ce nom de période doit être défini dans le mapping de période de la gestion des données.

Période de fin : dernière période pour laquelle les données doivent être chargées. Ce nom de période doit être défini dans le mapping de période de la gestion des données.

Mode d'import : détermine le mode d'import des données dans Data Management.

APPEND pour un ajout à la règle existante

données de PDV existantes dans Data Management

REPLACE pour supprimer les données de PDV et les remplacer par celles du fichier.

RECALCULATE pour ignorer l'import des données, mais retraiter les données avec les comptes logiques et les mappings mis à jour.

NONE pour ignorer l'import des données dans la table intermédiaire de gestion des données.

Mode d'export : détermine le mode d'export des données dans Data Management.

STORE_DATA pour fusionner les données de la table intermédiaire Data Management avec les données Financial Consolidation and Close ou Tax Reporting existantes.

ADD_DATA pour ajouter les données de la table intermédiaire Data Management à Financial Consolidation and Close ou Tax Reporting.

SUBTRACT_DATA pour soustraire les données de la table intermédiaire Data Management des données Financial Consolidation and Close ou Tax Reporting existantes.

REPLACE_DATA pour effacer les données de PDV et les remplacer par des données dans la table intermédiaire de gestion des données. Les données sont effacées pour Scénario, Version, Année, Période et Entité.

NONE pour ignorer l'export des données de la gestion des données vers Financial Consolidation and Close ou Tax Reporting

Nom du fichier : facultatif. Si vous n'indiquez aucun nom de fichier, cette API importe les données contenues dans le fichier spécifié dans la règle de chargement des données. Le fichier de données doit déjà résider dans la boîte de réception avant l'exécution de la règle de données.

Exécuter comme : vous devez préciser ce paramètre dans l'onglet Workflow.

Forcer l'exécution de la consolidation

Il s'agit d'une tâche d'utilitaire permettant de forcer l'exécution d'une consolidation. La tâche invite l'utilisateur à entrer les paramètres pour l'exécution des tâches, tels que Scénario, Année, Période et Entité.

Scénario

Année

Période

Entité : vous pouvez ajouter plusieurs entités à l'aide d'un séparateur sous forme de virgule.

Forcer l'exécution de la conversion

Il s'agit d'une tâche d'utilitaire permettant de forcer l'exécution d'une conversion. La tâche invite l'utilisateur à entrer les paramètres pour l'exécution des tâches, tels que Scénario, Année, Période et Entité.

Scénario

Année

Période

Entité : vous pouvez ajouter plusieurs entités avec un séparateur sous forme de virgule.

Exécuter la conversion

Il s'agit d'une tâche d'utilitaire permettant d'exécuter une conversion. La tâche invite l'utilisateur à entrer les paramètres pour l'exécution des tâches, tels que Scénario, Année, Période et Entité.

Scénario

Année

Période

Entité : vous pouvez ajouter plusieurs entités avec un séparateur sous forme de virgule.

Intégrations d'automatisation pour Planning et les modules Planning

Nom de l'intégration Description Paramètres / Description

Effacer le cube

Efface des données spécifiques dans les cubes de reporting et d'entrée.

Nom : nom du job d'effacement de cube.

Actualisation de cube

Actualise le cube OLAP.

Nom : nom du job d'actualisation de cube.

Exporter les données

Exporte des données d'application dans un fichier à l'aide des paramètres d'export de données, y compris le nom de fichier, indiqués dans un job de type export data. Le fichier contenant les données exportées est stocké dans le référentiel.

Nom : nom du job d'export de données.

Nom du fichier d'export : facultatif. Nom du fichier où les données doivent être exportées.

Importer les données

Importe les données d'un fichier du référentiel dans l'application à l'aide des paramètres d'import de données indiqués dans un job de type Importer les données.

Nom : nom du job d'import de données.

Nom du fichier d'import : facultatif. Nom du fichier à partir duquel les données doivent être importées.

Importer les métadonnées

Importe les métadonnées d'un fichier du référentiel dans l'application à l'aide des paramètres d'import de métadonnées indiqués dans un job de type Importer les métadonnées.

Nom : nom d'un lot défini dans l'import de métadonnées.

Exécuter un lot

Exécute un lot de jobs définis dans Data Management.

Nom : nom du rapport à exécuter, tel que Chemin de mapping de dimension pour PDV (Dimension, Catégorie, Période)

Type de format de rapport : format de fichier du rapport (PDF, XLSX ou HTML)

Paramètres : leur nombre et leur valeur peuvent varier en fonction du rapport

Location: : emplacement du rapport, par exemple Comma_Vision

Exécuter une règle métier

Lance une règle métier.

Nom : nom d'une règle métier exactement tel que défini.

Paramètres : invites d'exécution dans la syntaxe JSON. Le nom du paramètre doit être exactement le même que celui défini dans la définition de la règle. Par exemple :

{ "MyScenario1":"Current", "MyVersion1":"BU Version_1", "ToEntity":"CA",

"Rule_Level_Var":"AZ", "planType":"Plan1"}

Le format suivant est également pris en charge, par exemple :

"Scenario=Actual" "Entity=Total Geography" "Year=FY21" "Period=Apr"

Exécuter l'ensemble de règles métier

Lance un ensemble de règles métier. Les ensembles de règles sans invites d'exécution ou avec des invites d'exécution avec des valeurs par défaut seront pris en charge.

Nom : nom d'un ensemble de règles métier exactement tel qu'il est défini.

Paramètres : invites d'exécution dans la syntaxe JSON. Le nom du paramètre doit être exactement le même que celui défini dans la définition de la règle. Par exemple :

{ "MyScenario1":"Current", "MyVersion1":"BU Version_1", "ToEntity":"CA",

"Rule_Level_Var":"AZ", "planType":"Plan1"}

Le format suivant est également pris en charge, par exemple :

"Scenario=Actual" "Entity=Total Geography" "Year=FY21" "Period=Apr"

Exécuter une règle de données

Exécute une règle de chargement des données de la gestion des données en fonction de la période de début et de fin, ainsi que des options d'import ou d'export indiquées.

Nom du job : nom d'une règle de chargement de données définie dans Data Management.

Période de début : première période pour laquelle les données doivent être chargées. Ce nom de période doit être défini dans le mapping de période de la gestion des données.

Période de fin : dernière période pour laquelle les données doivent être chargées. Ce nom de période doit être défini dans le mapping de période de la gestion des données.

Mode d'import : détermine le mode d'import des données dans Data Management.

APPEND pour un ajout à la règle existante

données de PDV existantes dans Data Management

REPLACE pour supprimer les données de PDV et les remplacer par celles du fichier.

RECALCULATE pour ignorer l'import des données, mais retraiter les données avec les comptes logiques et les mappings mis à jour.

NONE pour ignorer l'import des données dans la table intermédiaire de gestion des données.

exportMode : détermine le mode d'export des données dans Data Management.

STORE_DATA pour fusionner les données de la table intermédiaire de gestion des données avec les données Oracle Hyperion Planning existantes.

ADD_DATA pour ajouter les données de la table intermédiaire de Data Management à Planning

SUBTRACT_DATA pour soustraire les données de la table intermédiaire de Data Management des données Planning existantes

REPLACE_DATA pour effacer les données de PDV et les remplacer par des données dans la table intermédiaire de gestion des données. Les données sont effacées pour Scénario, Version, Année, Période et Entité.

NONE pour ignorer l'export des données de Data Management vers Planning

Nom du fichier : facultatif. Si vous n'indiquez aucun nom de fichier, cette API importe les données contenues dans le fichier spécifié dans la règle de chargement des données. Le fichier de données doit déjà résider dans la boîte de réception avant l'exécution de la règle de données.

Intégrations d'automatisation pour Profitability and Cost Management

Nom de l'intégration Description Paramètres / Description

Appliquer les autorisations d'accès aux données

Applique des autorisations d'accès aux données pour une applicationProfitability and Cost Management donnée. Cette API soumet un job pour créer et appliquer les autorisations d'accès aux données dans Essbase. Elle enlève toutes les autorisations d'accès aux données existantes dans Oracle Essbase et les recrée avec les dernières informations de l'application. Elle peut également être utilisée pour réparer des autorisations d'accès aux données en cas de problème. Aucun

Déployer le cube ML

Déploie ou redéploie le cube de calcul pour une application Profitability and Cost Management sélectionnée.

isKeepData: : indiquez si les données existantes doivent être conservées

isReplacecube: : indiquez si l'existant doit être remplacé

comment: : tout commentaire de l'utilisateur

Exécuter le calcul ML

Exécutez ou effacez des calculs pour une application sélectionnée. A utiliser avec le grand livre de gestion.

povGroupMember : membre de groupe de PDV pour lequel exécuter les calculs, par exemple 2015_January_Actual

isClearCalculated: : permet d'indiquer si les données de calcul doivent être effacées (True ou False)

subsetStart: : numéro de séquence de début de l'ensemble de règles

subsetEnd: : numéro de séquence de fin de l'ensemble de règles

Rule : nom de règle pour SINGLE_RULE

ruleSetName: : nom d'ensemble de règles pour une option SINGLE_RULE

exeType: : le type d'exécution indique les règles à exécuter ; les valeurs possibles sont ALL_RULES, RULESET_SUBSET, SINGLE_RULE. D'autres paramètres sont requis en fonction de la valeur exeType.

exeType : ALL_RULES remplace toutes les autres options telles que subsetStart, subsetEnd, ruleSetName, ruleName, etc.

exeType : RULESET_SUBSET prend en compte uniquement subsetStart et subsetEnd.

exeType : SINGLE_RULE prend en compte uniquement ruleSetName et ruleName.

Comment : commentaire de l'utilisateur

Delimiter : délimiteur de chaîne pour des membres de groupe de PDV, comme un trait de soulignement (_)

Effacer le PDV ML

Effacez les données et les artefacts de modèle d'une combinaison de PDV pour une application.

POV GroupMember : membre de groupe de PDV pour lequel exécuter les calculs, par exemple 2015_January_Actual

isManageRule : permet d'indiquer si les détails de la règle de programme doivent être effacés

isInputData : permet d'indiquer si les données d'entrée doivent être effacées

IsAllocatedValues : permet d'indiquer si les valeurs allouées doivent être effacées

stringDelimiter: : délimiteur de chaîne pour des membres de groupe de PDV

Copier le PDV ML

Copiez les données et les artefacts de modèle à partir d'une combinaison de PDV source vers une combinaison de PDV de destination pour une application. Utilisez des applications de type Grand livre de gestion.

PDV : inclus dans le chemin

srcPOVMemberGroup: : groupe de membres de PDV source, comme 2014_January_Actual

destPOVMemberGroup: : groupe de membres de PDV de destination, comme 2014_March_Actual

isManageRule: : permet d'indiquer si les détails de la règle de programme doivent être copiés

isInputData: : permet d'indiquer si les données d'entrée doivent être copiées

modelViewName: : permet de copier une tranche de données d'un PDV source vers un PDV de destination

Créer un PDV de destination : permet d'indiquer si le PDV de destination doit être créé s'il n'existe pas déjà

Séparateur de chaîne : délimiteur de chaîne pour les membres de groupe de PDV

Exécuter une règle de données

Exécute une règle de chargement des données de la gestion des données en fonction de la période de début et de fin, ainsi que des options d'import ou d'export indiquées.

Nom du job : nom d'une règle de chargement de données définie dans Data Management.

Période de début : première période pour laquelle les données doivent être chargées. Ce nom de période doit être défini dans le mapping de période de la gestion des données.

Période de fin : dernière période pour laquelle les données doivent être chargées. Ce nom de période doit être défini dans le mapping de période de la gestion des données.

Mode d'import : détermine le mode d'import des données dans Data Management.

APPEND pour un ajout à la règle existante

données de PDV existantes dans Data Management.

REPLACE pour supprimer les données de PDV et les remplacer par celles du fichier.

RECALCULATE pour ignorer l'import des données, mais retraiter les données avec les comptes logiques et les mappings mis à jour.

NONE pour ignorer l'import des données dans la table intermédiaire de gestion des données.

Mode d'export : détermine le mode d'export des données dans Data Management.

STORE_DATA pour fusionner les données de la table intermédiaire de gestion des données avec les données Profitability and Cost Management existantes.

ADD_DATA pour ajouter les données de la table intermédiaire de gestion des données à Profitability and Cost Management.

SUBTRACT_DATA pour soustraire les données de la table intermédiaire de gestion des données des données Profitability and Cost Management existantes.

REPLACE_DATA pour effacer les données de PDV et les remplacer par des données dans la table intermédiaire de gestion des données. Les données sont effacées pour Scénario, Version, Année, Période et Entité.

NONE pour ignorer l'export des données de la gestion des données vers Profitability and Cost Management

Nom du fichier : facultatif. Si vous n'indiquez aucun nom de fichier, cette API importe les données contenues dans le fichier spécifié dans la règle de chargement des données. Le fichier de données doit déjà résider dans la boîte de réception avant l'exécution de la règle de données.

Exécuter une règle de lot

Exécute un lot de jobs définis dans Data Management.

Nom du job : nom d'un lot défini dans Data Management.

Mettre à jour la dimension

Charge un nouveau fichier plat de dimension pour une application créée à l'aide d'un fichier plat. Il s'agit d'une intégration automatisée de processus. Pour plus d'informations, reportez-vous à la section Mise à jour des dimensions en tant que job dans le guide API REST.

Nom de fichier : nom du fichier de données

Séparateur : paramètre facultatif