Die folgenden vordefinierten Integrationen sind verfügbar:
Um die vordefinierten Oracle Fusion Cloud Enterprise Performance Management-Integrationen zu verwenden, müssen Sie Parameter für die Integration angeben. Viele Parameter für automatisierte Integrationen können aus Dropdown-Listen ausgewählt werden, wodurch Werte nicht manuell eingegeben werden müssen. Beispiel: Um eine Regel oder ein Regelset auszuführen, können Sie die entsprechende Option aus einer Liste mit Geschäftsregeln auswählen, z.B. "ForceConsolidate" oder "ForceTranslate".
Einen Überblick über die Task-Manager-Integrationen finden Sie unter Task Manager-Integrationen verwalten.
Automatisierungsintegrationen für Cloud EPM Platform
Integrationsname/Modul | Modul | Beschreibung | Parameter/Beschreibung |
---|---|---|---|
Datei aus Tax Reporting kopieren | Alle Cloud EPM-Services außer Enterprise Data Management |
Kopiert eine Datei aus dem aktuellen Service, für den Task-Manager konfiguriert ist, in einen anderen Cloud EPM-Service. Beispiel: Wenn Sie Task-Manager in Tax Reporting konfiguriert und eine Account Reconciliation-Verbindung eingerichtet haben, wird die Datei mit der Option Datei kopieren aus Tax Reporting aus Tax Reporting in Account Reconciliation kopiert. |
Dateiname: Der Name der Datei, die kopiert werden soll. Datei speichern unter: Name der zu speichernden Datei. Dieser Name kann vom ursprünglichen Dateinamen abweichen. Name des externen Verzeichnisses (optional): Name des Verzeichnisses. |
Datei in Tax Reporting kopieren | Alle Cloud EPM-Services außer Enterprise Data Management | Kopiert eine Datei in den aktuellen Service, wenn Task-Manager aus einem anderen Cloud EPM-Service konfiguriert wurde. |
Dateiname: Der Name der Datei, die kopiert werden soll. Datei speichern unter: Der Name, unter dem die Datei gespeichert werden soll. Dieser Name kann vom ursprünglichen Dateinamen abweichen. Name des externen Verzeichnisses (optional): Name des Verzeichnisses. |
Datei aus Tax Reporting löschen | Alle Cloud EPM-Services außer Enterprise Data Management | Löscht eine Datei aus einem Cloud EPM-Service. |
Dateiname: Der Name der Datei, die gelöscht werden soll. |
Datenintegration sperren/entsperren | Alle Cloud EPM-Services außer Enterprise Data Management | Sperrt oder entsperrt eine Integration für einen Standort, eine Kategorie und eine Periode in der Komponente "Datenaustausch". Dies ist eine prozessautomatisierte Integration. |
Vorgang: Wählen Sie zwischen "Sperren" und "Entsperren". Sperrtyp: Wählen Sie aus, ob der Sperr-/Entsperrvorgang für eine Anwendung oder einen Speicherort gilt. Periode: Geben Sie die Periode des POVs über die in "Datenaustausch" definierte Integration oder Dataload-Regel ein, z.B. "Jan-21". Kategorie: Geben Sie den vordefinierten Wert für "Szenario" basierend auf der POV-Kategorie aus der Integrations- bzw. Datenregeldefinition an. Die verfügbaren Kategorien sind diejenigen, die Sie im Setup der Komponente Datenintegration erstellt haben, z.B. "Ist". Anwendung (optional): Wenn der ausgewählte Sperrtyp "Anwendung" lautet, geben Sie den Namen der Anwendung an, z.B. "Vision". Speicherort (optional): Wenn der ausgewählte Sperrtyp "Speicherort" lautet, geben Sie den Namen des Speicherorts an. Wenn der Speicherort gesperrt ist, können keine Daten darin geladen werden. Entsperren nach Speicherort (optional): Dieser Parameter kann angegeben werden, wenn der ausgewählte Vorgang "Sperren" und der ausgewählte Speicherort "Anwendung" lauten. Wenn diese Option beim Sperren der Zielanwendung aktiviert ist, sperrt das System alle Regeln, die am Speicherort unter der Zielanwendung vorhanden sind, und die Sperre auf Anwendungsebene wird nicht aktiviert. Informationen hierzu finden Sie unter POV sperren und entsperren in der Dokumentation REST-APIs. |
Datenintegration ausführen | Alle Cloud EPM-Services außer Enterprise Profitability and Cost Management | Führen Sie eine Integrations- oder Dataload-Regel basierend auf Quellfiltern und der Verarbeitungsart von Perioden aus. So können die in "Datenaustausch" definierten Dataloads ganz einfach in den monatlichen Verarbeitungsplan integriert werden. |
Jobtyp: Der Jobtyp lautet "Integration". Integrationsname: Name der in der Komponente Datenintegration definierten Integration Periodenname: Name der Periode. Importmodus: Bestimmt, wie die Daten in die Komponente Datenintegration importiert werden. Exportmodus: Bestimmt, wie die Daten in die Komponente Datenintegration exportiert werden. Dateiname: Gilt nur für native dateibasierte Dataloads und wird ignoriert, wenn der Name für andere Ladevorgänge angegeben wird. Quellfilter: Ein Parameter zum Aktualisieren der Quellfilter, die für die Dataload-Regel oder Integration definiert sind. Zieloptionen: Ein Parameter zum Aktualisieren der Zieloptionen, die für die Dataload-Regel oder Integration definiert sind. Ausführungsmodus: Nur für Integrationen im Schnellmodus anwendbar. Weitere Details zu diesen Parametern finden Sie unter Integrationen ausführen in der Dokumentation REST-APIs. |
Pipeline ausführen | Alle Cloud EPM-Services außer Enterprise Data Management und Account Reconciliation | Führt eine Pipeline basierend auf ausgewählten Jobparametern und Variablen aus. |
Jobtyp: Pipeline. Jobname: Für die Pipeline in der Komponente Datenintegration. definierter Pipelinecode Startperiode: Erste Periode, für die Daten geladen werden sollen. Dieser Periodenname muss in der Periodenzuordnung der Komponente Datenintegration definiert sein. Endperiode: Letzte Periode, für die Daten geladen werden sollen. Dieser Periodenname muss in der Periodenzuordnung der Komponente Datenintegration definiert sein. Importmodus: Bestimmt, wie die Daten in die Komponente Datenintegration importiert werden. Exportmodus: Bestimmt, wie die Daten in die Komponente Datenintegration exportiert werden. Logs anhängen: Gibt an, ob Logs als E-Mail-Anhang aufgenommen werden. E-Mail senden: Bestimmt, wann beim Ausführen einer Pipeline eine E-Mail gesendet wird. Senden an: Bestimmt die E-Mail-ID des Empfängers der E-Mail-Benachrichtigung. Weitere Details zu diesen Parametern finden Sie unter Pipeline ausführen in der Dokumentation REST-APIs. |
Weitere Informationen finden Sie unter Integrationsdateien kopieren und löschen
Automatisierungsintegrationen für Account Reconciliation
Integrationsname/Modul | Modul | Beschreibung | Parameter/Beschreibung |
---|---|---|---|
Periodenstatus ändern | Abstimmungscompliance | Ändert den Status einer Periode (Offen, Geschlossen, Anstehend, Gesperrt). |
Period: Der Name der Periode status - Anstehend, Offen, Geschlossen, Gesperrt |
Periodenendabstimmungen erstellen | Abstimmungscompliance | Kopiert alle ausgewählten Profile in eine Periode und gibt den Status "Erfolg" oder "Fehler" zurück |
Period: Der Name der Periode Filter: Der Name des Filters, der mit der Abstimmung übereinstimmt |
Salden importieren | Abstimmungscompliance | Importiert Saldendaten mit der Komponente Datenmanagement aus einer zuvor erstellten Dataload-Definition. |
Period: Der Name der Periode dl_Definition: - Der Name eines zuvor gespeicherten Dataloads mit dem Format "DL_name", z.B. DL_test |
Vorab zugeordnete Salden importieren | Abstimmungscompliance | Importiert vorab zugeordnete Salden. |
Period: Der Name der Periode BalanceType: SUB|SRC für Untersystem oder Quellsystem CurrencyBucket: Währungsgruppe, z.B. "Funktional" File: Der Name der Datei in Bezug auf die Inbox, z.B. balances.csv. Die Datei muss mit EPM Automate oder der REST-API in Account Reconciliation hochgeladen werden. |
Vorab zugeordnete Transaktionen importieren | Abstimmungscompliance | Importiert vorab zugeordnete Transaktionen für eine bestimmte Periode. |
TransactionType: Zulässige Transaktionstypen sind BEX (Geklärter Saldo), SRC (Anpassung an Quellsystem) und SUB (Anpassung an Untersystem) File: Der Name der Datei in Bezug auf die Inbox, z.B. transactions.csv Die Datei muss mit EPM Automate oder der REST-API in Account Reconciliation hochgeladen werden. DateFormat: Datumsformat, z.B. MM/tt/jjjj, tt/MM/jjjj, tt-MMM-jj, MMM t,jjjj oder "Alle" |
Vorab zugeordnete Transaktionen importieren | Transaktionsabgleich | Importiert eine Datei mit vorab zugeordneten Transaktionen in den Transaktionsabgleich. |
DataSource: Die Text-ID der Datenquelle, in die die Transaktion importiert wird File: Der Name der Datei in Bezug auf die Inbox, z.B. transactions.csv Die Datei muss mit EPM Automate oder der REST-API in Account Reconciliation hochgeladen werden. ReconciliationType: Die Text-ID des Abstimmungstyps, in den die Transaktionsdatei importiert wird, z.B. Bank zu Hauptbuch. DateFormat: Datumsformat, z.B. MM/tt/jjjj, tt/MM/jjjj, MM-tt-jjjj, t-M-jjjj, tt-MMM-jj, MMM t, jjjj |
Importprofile | Abstimmungscompliance | Importiert Profile für eine bestimmte Periode. |
ImportType: Der Importtyp. Unterstützte Werte sind "Replace" und "ReplaceAll". Period: Periode, für die der Import durchgeführt werden soll ProfileType: Der Profiltyp. Unterstützte Werte sind "Profile" und "Untergeordnete Elemente". File: Der Name der Datei in Bezug auf die Inbox, z.B. profiles.csv. Die Datei muss mit EPM Automate oder der REST-API in Account Reconciliation hochgeladen werden. DateFormat: Datumsformat, z.B. MM/tt/jjjj, tt/MM/jjjj, t-M-jjjj, tt-MMM-jj, MMM t, jjjj oder "Alle" |
Kurse importieren | Abstimmungscompliance | Importiert Kurse für eine bestimmte Periode und einen bestimmten Kurstyp. |
Period: Der Name der Periode RateType: Der Kurstyp, z.B. Buchung Kurse importieren (Abstimmungscompliance) File: Der Name der Datei in Bezug auf die Inbox, z.B. .rates.csv. Die Datei muss mit EPM Automate oder der REST-API in Account Reconciliation hochgeladen werden. ImportType: Unterstützte Importtypen sind "Replace" und "ReplaceAll" |
Abstimmungen überwachen | Abstimmungscompliance | Überwacht die Liste der Abstimmungen in ARCS. |
Period: Der Name der Periode Filter: Für Abfrage der Liste mit Abstimmungen verwendete Filterzeichenfolge |
Automatischen Abgleich ausführen | Transaktionsabgleich | Führt den Prozess des automatischen Abgleichs im Transaktionsabgleich aus. |
reconTypeId - Die Text-ID des automatisch abzugleichenden Abstimmungstyps |
Abstimmungen anzeigen | Abstimmungscompliance | Abstimmungen für eine angegebene Periode anzeigen. |
Period: Der Name der Periode Saved List: Der Name der öffentlichen gespeicherten Liste |
Transaktionen anzeigen | Transaktionsabgleich | Transaktionen für eine angegebene Periode anzeigen. |
Period: Der Name der Periode Saved List: Der Name der öffentlichen gespeicherten Liste |
Automatisierungsintegrationen für Enterprise Data Management
Integrationsname | Beschreibung | Parameter/Beschreibung |
---|---|---|
Dimension exportieren |
Exportiert eine Dimension aus Enterprise Data Management in eine konfigurierte Verbindung. Dies ist eine prozessautomatisierte Integration. Informationen hierzu finden Sie unter Vordefinierte Integrationen in Cloud EPM hinzufügen. |
Anwendung: Name der Enterprise Data Management-Anwendung, aus der die Dimension exportiert wird. Dimension: Name der zu exportierenden Dimension. Verbindung: Optional. Name der Verbindung für den Export der Dimension. Dateiname: Datei und Pfad für den Export der Dimension. |
Dimensionszuordnung exportieren |
Exportiert eine Dimensionszuordnung aus Enterprise Data Management in eine konfigurierte Verbindung. Dies ist eine prozessautomatisierte Integration. |
Anwendung: Name der Enterprise Data Management-Anwendung, aus der die Dimensionszuordnung exportiert werden soll. Dimension: Name der zu exportierenden Dimensionszuordnung. Verbindung: Optional. Name der Verbindung für den Export der Dimensionszuordnung. Zuordnungsspeicherort: Speicherort für den Export der Dimensionszuordnung. Dateiname: Datei und Pfad für den Export der Dimensionszuordnung. |
Dimension importieren |
Importiert eine Dimension aus einer konfigurierten Verbindung in eine Enterprise Data Management-Anwendung. Dies ist eine prozessautomatisierte Integration. Informationen hierzu finden Sie unter Vordefinierte Integrationen in Cloud EPM hinzufügen. |
Anwendung: Name der Enterprise Data Management-Anwendung, in die die Dimension importiert werden soll. Dimension: Name der zu importierenden Dimension. Verbindung: Name der Verbindung, aus der die Dimension importiert werden soll. Dateiname: Datei und Pfad für den Import der Dimension. Importoption: Optional. Bestimmt, wie die Daten in Enterprise Data Management importiert werden. |
Dimension extrahieren | Extrahiert eine Dimension aus Enterprise Data Management in eine konfigurierte Verbindung. Dies ist eine prozessautomatisierte Integration. |
Anwendung: Name der Enterprise Data Management-Anwendung, aus der die Dimension extrahiert werden soll. Dimension: Name der zu extrahierenden Dimension. Extrakt: Name des Extrakts. Verbindung: Name der Verbindung, in die die Dimension extrahiert werden soll. Dateiname: Datei und Pfad für die Extraktion der Dimension. |
Automatisierungsintegrationen für Enterprise Profitability and Cost Management
Integrationsname | Beschreibung | Parameter/Beschreibung |
---|---|---|
Modell berechnen | Berechnet ein Modell für mindestens einen Point of View. |
Jobtyp: Modell berechnen Jobname: Name des Jobs POV-Trennzeichen: In POV-Werten verwendetes Trennzeichen. Das Standardtrennzeichen ist ein "_" (Unterstrich). Das Trennzeichen muss in doppelte Anführungszeichen gesetzt werden. Es werden nur die folgenden Trennzeichen unterstützt:
POV-Name: Name des zu berechnenden POV. Sie können auch mehrere POVs durch Komma (,) getrennt übergeben. Modellname: Name des zu berechnenden Modells. Ausführungstyp: Gibt den Regelausführungstyp an. Überwachungsaufgabe: Überwacht eine andere Anwendung und wartet darauf, dass eine Aktion oder ein Status eintritt. Regelname: Name der einzelnen auszuführenden Regel. Erste Abfolgenummer des Regelsets: Abfolgenummer der ersten Regel im Regelset, die ausgeführt werden soll. Letzte Abfolgenummer des Regelsets: Abfolgenummer der letzten Regel im Regelset, die ausgeführt werden soll. Vorhandene Berechnungen löschen: Gibt an, ob vorhandene Berechnungen gelöscht werden sollen. Berechnungen ausführen: Gibt an, ob Berechnungen ausgeführt werden sollen. Für Reporting optimieren: Gibt an, ob der Berechnungsprozess für das Reporting optimiert werden soll. Debuggingskripte generieren: Gibt an, ob Debuggingskripte generiert werden sollen. Kommentare: Kommentare zur Beschreibung des Jobs. |
Cube löschen | Löscht bestimmte Daten in den Cubes PCM_CLC und PCM_REP. |
Jobtyp: Cube löschen Jobname: Name des Jobs |
Daten nach Point of View löschen | Löscht Daten aus einem Point of View, ohne den Point of View zu entfernen. |
Jobtyp: POV löschen Jobname: Name des Jobs POV-Trennzeichen: In POV-Werten verwendetes Trennzeichen. Das Trennzeichen muss in doppelte Anführungszeichen gesetzt werden. Außer Kommas werden die folgenden Trennzeichen unterstützt:
POV-Name: Name des zu löschenden POV. Cube-Name: Name des Cubes, für den der Löschvorgang ausgeführt werden soll. Eingabedaten löschen: Gibt an, ob Eingabedaten gelöscht werden sollen. Umgelegte Daten löschen: Gibt an, ob umgelegte Daten gelöscht werden sollen. Anpassungsdaten löschen: Gibt an, ob Anpassungsdaten gelöscht werden sollen. |
Daten nach Point of View kopieren | Kopiert Daten aus einem Point of View in einen anderen. |
Jobtyp: POV kopieren Jobname: Name des Jobs POV-Trennzeichen: In POV-Werten verwendetes Trennzeichen. Das Trennzeichen muss in doppelte Anführungszeichen gesetzt werden. Außer Kommas werden die folgenden Trennzeichen unterstützt:
Quell-POV: Name des Quell-POV. Ziel-POV: Name des Ziel-POV. Kopiertyp: Gibt die von der Quelle zu kopierenden Daten an. Name des Quell-Cubes: Name des Quell-Cubes. Name des Ziel-Cubes: Name des Ziel-Cubes. |
Cube aktualisieren |
Aktualisiert den OLAP-Cube. |
Jobtyp: Cube aktualisieren Jobname: Name des Jobs |
Export Data | Exportiert Anwendungsdaten in eine Datei anhand der Datenexporteinstellungen, die in einem Job vom Typ "Daten exportieren" festgelegt sind, einschließlich Dateinamen. Die Datei mit den exportierten Daten wird im Repository gespeichert. |
Jobtyp: Daten exportieren Jobname: Name des Jobs Exportdateiname: Name der Datei, in die Daten exportiert werden sollen. |
Datenzuordnung exportieren |
Exportiert eine in der Komponente Datenmanagement definierte Datenzuordnung an einen angegebenen Speicherort. Dies ist eine prozessautomatisierte Integration. Weitere Informationen finden Sie unter Vordefinierte Integrationen in Cloud EPM hinzufügen. Elementzuordnungen definieren Beziehungen zwischen Quellelementen und Zieldimensionselementen in einer einzelnen Dimension. |
Jobtyp: Datenzuordnung exportieren Dimension: Name einer bestimmten zu importierenden Dimension, z.B. ACCOUNT, oder ALL für den Import aller Dimensionen Dateiname: Datei und Pfad für den Export von Zuordnungen. Das Dateiformat kann CSV, TXT, XLS oder XLSX lauten. Nehmen Sie die Outbox in den Dateipfad auf, z.B. outbox/BESSAPPJan-06.csv. Speicherortname: Name des Speicherorts für den Export. |
Metadaten exportieren | Exportiert Metadaten aus einer Datei im Repository in die Anwendung anhand der Metadatenexporteinstellungen, die in einem Job vom Typ "Metadaten exportieren" festgelegt sind. |
Jobtyp: Metadaten exportieren Jobname: Name eines in "Metadaten exportieren" definierten Batches. Export-ZIP-Dateiname: Name der ZIP-Datei für die exportierten Metadaten. |
Daten importieren | Importiert Daten aus einer Datei im Repository in die Anwendung anhand der Datenimporteinstellungen, die in einem Job vom Typ "Daten importieren" festgelegt sind. |
Jobtyp: Daten importieren Jobname: Name des Jobs Importdateiname: Name der Datei, aus der Daten importiert werden sollen. |
Datenzuordnung importieren |
Importiert eine in der Komponente Datenmanagement definierte Datenzuordnung an einen angegebenen Speicherort. Dies ist eine prozessautomatisierte Integration. Elementzuordnungen definieren Beziehungen zwischen Quellelementen und Zieldimensionselementen in einer einzelnen Dimension. Sie können Elementzuordnungen aus einer ausgewählten Excel-, CSV- oder TXT-Datei importieren. |
Jobtyp: Datenzuordnung importieren Dimension: Name einer bestimmten zu importierenden Dimension, z.B. ACCOUNT, oder ALL für den Import aller Dimensionen. Dateiname: Datei und Pfad für den Import von Zuordnungen. Das Dateiformat kann CSV, TXT, XLS oder XLSX lauten. Die Datei muss vor dem Import entweder in die Inbox oder in ein Unterverzeichnis der Inbox hochgeladen werden. Nehmen Sie die Inbox in den Dateipfad auf, z.B. inbox/BESSAPPJan-06.csv. Importmodus: MERGE zum Hinzufügen neuer oder Ersetzen vorhandener Regeln oder REPLACE zum Löschen vorhandener Zuordnungsregeln vor dem Import Validierungsmodus: Angabe zur Verwendung des Validierungsmodus ("true" oder "false"). Beim Eintrag "true" werden die Zielelemente anhand der Zielanwendung validiert, bei "false" wird die Zuordnungsdatei ohne Validierungen geladen. Beachten Sie, dass der Validierungsprozess ressourcenintensiv ist und länger als der Validierungsmodus false dauert. Daher wählen die meisten Kunden die Option false aus. Speicherort: Der Speicherort in der Komponente Datenmanagement, in dem die Zuordnungsregeln geladen werden sollen. Zuordnungsregeln sind für einen Speicherort in der Komponente Datenmanagement spezifisch. |
Metadaten importieren | Importiert Metadaten aus einer Datei im Repository in die Anwendung anhand der Metadatenimporteinstellungen, die in einem Job vom Typ "Metadaten importieren" festgelegt sind. |
Jobtyp: Metadaten importieren Jobname: Name eines in "Metadaten importieren" definierten Batches. Import-ZIP-Dateiname: Name der ZIP-Datei für die importierten Metadaten. |
Datenintegration sperren/entsperren | Sperrt oder entsperrt eine Integration für einen Speicherort, eine Kategorie und eine Periode in "Datenaustausch". Dies ist eine prozessautomatisierte Integration. |
Jobtyp: Datenintegration sperren/entsperren Vorgang: Sperren oder Entsperren. Sperrtyp: Gibt an, ob der Sperr-/Entsperrvorgang für eine Anwendung oder einen Speicherort gilt. Periode: Periode des POV aus der in "Datenaustausch" definierten Integration oder Dataload-Regel, z.B. "Jan-21". Kategorie: Vordefinierter Wert für "Szenario" basierend auf der POV-Kategorie aus der Integrations- bzw. Datenregeldefinition. Die verfügbaren Kategorien sind diejenigen, die Sie im Setup der Komponente Datenintegration erstellt haben, z.B. "Ist". Anwendung (optional): Wenn der ausgewählte Sperrtyp "Anwendung" lautet, ist das der Name der Anwendung, z.B. "Vision". Speicherort (optional): Wenn der ausgewählte Sperrtyp "Speicherort" lautet, ist das der Name des Speicherorts. Wenn der Speicherort gesperrt ist, können keine Daten darin geladen werden. Entsperren nach Speicherort (optional): Dieser Parameter kann angegeben werden, wenn der ausgewählte Vorgang "Sperren" und der ausgewählte Speicherort "Anwendung" lautet. Wenn diese Option beim Sperren der Zielanwendung aktiviert ist, sperrt das System alle Regeln, die am Speicherort unter der Zielanwendung vorhanden sind, und die Sperre auf Anwendungsebene wird nicht aktiviert. Informationen hierzu finden Sie unter POV sperren und entsperren in der Dokumentation REST-APIs. |
Batch ausführen | Führt einen Batch mit Jobs aus, die in der Komponente Datenmanagement definiert wurden |
Jobtyp: Batch ausführen Batchname: Name des auszuführenden Batches, z.B. Dimensionszuordnung für POV-Pfad (Dimension, Cat, Per). Berichtsformattyp: Dateiformat des Berichts (PDF, XLSX oder HTML). Parameter: Anzahl und Werte der Parameter können je nach Bericht variieren. Location: - Der Speicherort des Berichts, z.B. Comma_Vision Ausführen als: Geben Sie diesen Parameter in der Registerkarte "Workflow" an. |
Geschäftsregel ausführen | Startet eine Geschäftsregel. |
Jobtyp: Geschäftsregel ausführen Regelname: Name der Geschäftsregel. Parameter: Runtime Prompts in JSON-Syntax. Der Parametername muss mit dem in der Regeldefinition festgelegten Namen identisch sein. Beispiel: {"MyScenario1":"Current", "MyVersion1":"BU Version_1", "ToEntity":"CA", "Rule_Level_Var":"AZ", "planType":"Plan1"} Das im folgenden Beispiel gezeigte Format wird ebenfalls unterstützt: "Scenario=Actual" "Entity=Total Geography" "Year=FY21" "Period=Apr" |
Geschäftsregelset ausführen | Startet ein Geschäftsregelset. Regelsets ohne Runtime Prompts oder Runtime Prompts mit Standardwerten werden unterstützt. |
Jobtyp: Geschäftsregelset ausführen Jobname: Name des Jobs Regelsetname: Name des Geschäftsregelsets. Parameter: Runtime Prompts in JSON-Syntax. Der Parametername muss mit dem in der Regeldefinition festgelegten Namen identisch sein. Beispiel: {"MyScenario1":"Current", "MyVersion1":"BU Version_1", "ToEntity":"CA", "Rule_Level_Var":"AZ", "planType":"Plan1"} Das im folgenden Beispiel gezeigte Format wird ebenfalls unterstützt: "Scenario=Actual" "Entity=Total Geography" "Year=FY21" "Period=Apr" |
Datenintegration ausführen | Führen Sie eine Integrations- oder Dataload-Regel basierend auf Quellfiltern und der Verarbeitungsart von Perioden aus. So können die in "Datenaustausch" definierten Dataloads ganz einfach in den monatlichen Verarbeitungsplan integriert werden. |
Jobtyp: Datenintegration ausführen Integrationsname: Der Name der in der Komponente Datenintegration definierten Integration. Periodenname: Name der Periode Importmodus: Bestimmt, wie die Daten in die Komponente Datenintegration importiert werden. Exportmodus: Bestimmt, wie die Daten in die Komponente Datenintegration exportiert werden. Dateiname: Gilt nur für native dateibasierte Dataloads und wird ignoriert, wenn der Name für andere Ladevorgänge angegeben wird Quellfilter: Parameter zum Aktualisieren der Quellfilter, die für die Dataload-Regel oder Integration definiert sind. Zieloptionen: Parameter zum Aktualisieren der Zieloptionen, die für die Dataload-Regel oder Integration definiert sind. Ausführungsmodus: Nur für Integrationen im Schnellmodus anwendbar Weitere Details zu diesen Parametern finden Sie unter Integrationen ausführen in der Dokumentation REST-APIs. |
Datenregel ausführen | Führt eine Dataload-Regel von Data Management basierend auf der Start- und Endperiode aus, und importiert oder exportiert die von Ihnen angegebenen Optionen. |
Jobtyp: Datenregel ausführen Datenregelname: Name einer in der Komponente Datenmanagement definierten Dataload-Regel. Startperiode: Erste Periode, für die Daten geladen werden sollen. Dieser Periodenname muss in der Periodenzuordnung von Data Management definiert sein. Endperiode: Letzte Periode, für die Daten geladen werden sollen. Dieser Periodenname muss in der Periodenzuordnung von Data Management definiert sein. Importmodus: Bestimmt, wie die Daten in die Komponente Datenmanagement importiert werden:
Exportmodus: Bestimmt, wie die Daten in die Komponente Datenmanagement exportiert werden:
Dateiname: Wenn Sie keinen Dateinamen angeben, importiert die API die Daten aus der Datei, deren Name in der Dataload-Regel angegeben ist. Die Datendatei muss bereits vor der Datenregelausführung in der INBOX vorhanden sein. Ausführen als: Geben Sie diesen Parameter in der Registerkarte "Workflow" an. |
Pipeline ausführen | Führt eine Pipeline basierend auf ausgewählten Jobparametern und Variablen aus. |
Jobtyp: Pipeline Jobname: Für die Pipeline in der Komponente Datenintegration definierter Pipelinecode Startperiode: Erste Periode, für die Daten geladen werden sollen. Dieser Periodenname muss in der Periodenzuordnung der Komponente Datenintegration definiert sein. Endperiode: Letzte Periode, für die Daten geladen werden sollen. Dieser Periodenname muss in der Periodenzuordnung der Komponente Datenintegration definiert sein. Importmodus: Bestimmt, wie die Daten in die Komponente Datenintegration importiert werden. Exportmodus: Bestimmt, wie die Daten in die Komponente Datenintegration exportiert werden. Logs anhängen: Gibt an, ob Logs als E-Mail-Anhang aufgenommen werden. E-Mail senden: Bestimmt, wann beim Ausführen einer Pipeline eine E-Mail gesendet wird Senden an: Bestimmt die E-Mail-ID des Empfängers der E-Mail-Benachrichtigung Weitere Details zu diesen Parametern finden Sie unter Pipeline ausführen in der Dokumentation REST-APIs. |
Automatisierungsintegrationen für Financial Consolidation and Close und Tax Reporting
Integrationsname | Beschreibung | Parameter/Beschreibung |
---|---|---|
Cube löschen
Hinweis: Diese Integration ist nur für Tax Reporting anwendbar. |
Löscht bestimmte Daten innerhalb von Eingabe- und Reporting-Cubes. | Name: Name des Jobs zum Löschen des Cubes. |
Anteilsdaten in nächstes Jahr kopieren |
Automatisiert die Aufgabe zum Kopieren der Anteilsdaten aus der letzten Periode eines Jahres in die erste Periode des nächsten Jahres. Informationen hierzu finden Sie unter copyOwnershipDataToNextYear in der Dokumentation Mit EPM Automate arbeiten. |
Szenario: Name des Szenarios, z.B. Ist, auswählbar Jahre: Auswählbar |
Cube aktualisieren |
Aktualisiert den OLAP-Cube. |
Name: Name des Jobs zum Aktualisieren des Cubes. |
Daten löschen |
Führt den Job "Daten löschen" anhand des Profilnamens aus. Weitere Informationen zur Verwendung von "Daten löschen" in Financial Consolidation and Close finden Sie unter Daten löschen in der Dokumentation REST-APIs. Weitere Informationen zur Verwendung von "Daten löschen" in Tax Reporting finden Sie unter Daten löschen in der Dokumentation REST-APIs. |
Profilname: Profilname zum Löschen der Daten. |
Daten kopieren |
Führt den Job "Daten kopieren" anhand des Profilnamens aus. |
Profilname: Profilname zum Kopieren der Daten. |
Export Data |
Exportiert Anwendungsdaten in eine Datei anhand der Datenexporteinstellungen, die in einem Job vom Typ "Daten exportieren" festgelegt sind, einschließlich Dateinamen. Die Datei mit den exportierten Daten wird im Repository gespeichert. |
Name: Name des Jobs zum Exportieren von Daten. Exportdateiname: Optional. Der Name der Datei, in die Daten exportiert werden sollen |
Datenzuordnung exportieren |
Exportiert eine in der Komponente Datenmanagement definierte Datenzuordnung an einen angegebenen Speicherort. Dies ist eine prozessautomatisierte Integration. Weitere Informationen finden Sie unter Vordefinierte Integrationen in Cloud EPM hinzufügen. Elementzuordnungen definieren Beziehungen zwischen Quellelementen und Zieldimensionselementen in einer einzelnen Dimension. |
Dimension: Name einer bestimmten zu importierenden Dimension, z.B. ACCOUNT, oder ALL für den Import aller Dimensionen. Dateiname: Datei und Pfad für den Export von Zuordnungen. Das Dateiformat kann CSV, TXT, XLS oder XLSX lauten. Geben Sie im Dateipfad auch immer die Outbox mit an. Beispiel: outbox/BESSAPPJan-06.csv. Speicherortname: Name des Speicherorts für den Export. |
Anteilsdaten exportieren |
Automatisiert die Aufgabe zum Exportieren von Anteilsdaten aus einer Entity in eine durch Komma getrennte CSV-Datei. Informationen hierzu finden Sie unter exportOwnershipData in der Dokumentation Mit EPM Automate arbeiten. |
Entity: Name der Entity. Szenario: Der Name des Szenario, z.B. "Ist". Auswählbar. Jahre: Auswählbar Periode: Der Name der Periode, z.B. Januar. Auswählbar. Dateiname: Name der zu exportierenden Datei. |
Daten importieren |
Importiert Daten aus einer Datei im Repository in die Anwendung anhand der Datenimporteinstellungen, die in einem Job vom Typ "Daten importieren" festgelegt sind. |
Name: Name des Jobs zum Importieren von Daten. Importdateiname: Optional. Der Name der Datei, aus der Daten importiert werden sollen |
Datenzuordnung importieren |
Importiert eine in der Komponente Datenmanagement definierte Datenzuordnung an einen angegebenen Speicherort. Dies ist eine prozessautomatisierte Integration. Elementzuordnungen definieren Beziehungen zwischen Quellelementen und Zieldimensionselementen in einer einzelnen Dimension. Sie können Elementzuordnungen aus einer ausgewählten Excel-, CSV- oder TXT-Datei importieren. |
Jobtyp: Jobtyp (MAPPINGIMPORT). Jobname: Name einer bestimmten zu importierenden Dimension, z.B. ACCOUNT, oder ALL für den Import aller Dimensionen. Dateiname: Datei und Pfad für den Import von Zuordnungen. Das Dateiformat kann CSV, TXT, XLS oder XLSX lauten. Die Datei muss vor dem Import entweder in die Inbox oder in ein Unterverzeichnis der Inbox hochgeladen werden. Nehmen Sie die Inbox in den Dateipfad auf, z.B. inbox/BESSAPPJan-06.csv. Importmodus: MERGE zum Hinzufügen neuer oder Ersetzen vorhandener Regeln oder REPLACE zum Löschen vorhandener Zuordnungsregeln vor dem Import. Validierungsmodus: Angabe zur Verwendung des Validierungsmodus ("true" oder "false"). Beim Eintrag "true" werden die Zielelemente anhand der Zielanwendung validiert, bei "false" wird die Zuordnungsdatei ohne Validierungen geladen. Beachten Sie, dass der Validierungsprozess ressourcenintensiv ist und länger als der Validierungsmodus false dauert. Daher wählen die meisten Kunden die Option false aus. Speicherortname: Der Speicherort in der Komponente Datenmanagement, an dem die Zuordnungsregeln geladen werden sollen. Zuordnungsregeln sind für einen Speicherort in der Komponente Datenmanagement spezifisch. |
Metadaten importieren |
Importiert Metadaten aus einer Datei im Repository in die Anwendung anhand der Metadatenimporteinstellungen, die in einem Job vom Typ "Metadaten importieren" festgelegt sind. |
Name: Name des in "Metadaten importieren" definierten Batches. |
Anteilsdaten importieren |
Automatisiert die Aufgabe zum Importieren von Anteilsdaten aus einer in der Umgebung verfügbaren CSV-Datei in eine Periode. Informationen hierzu finden Sie unter importOwnershipData in der Dokumentation Mit EPM Automate arbeiten. |
Szenario: Der Name des Szenario, z.B. "Ist". Auswählbar. Jahre: Auswählbar Periode: Der Name der Periode, z.B. Januar. Auswählbar. Dateiname: Name der zu importierenden Datei. |
Journalperiode |
Öffnet oder schließt eine Journalperiode automatisch. Das System schließt die Periode nur, wenn keine genehmigten und deaktivierten Journale vorhanden sind. Wenn genehmigte und deaktivierte Journale vorhanden sind, wird die Periode nicht geschlossen, und das System gibt einen Fehler zurück. Wenn deaktivierte Journale mit dem Status "In Bearbeitung" und "Weitergeleitet" vorhanden sind, wird die Periode mit einer Warnung geschlossen. |
Szenario: Der Name des Szenario, z.B. "Ist" Jahr: Das Jahr, z.B. GJ20 Periode: Der Name der Periode, z.B. Januar Aktion: Öffnen oder Schließen |
Enterprise-Journale überwachen
Hinweis: Diese Integration ist nur für Financial Consolidation and Close anwendbar. |
Überwacht den Fertigstellungsstatus von Journalen in einem Jahr/einer Periode oder einer gefilterten Liste. |
Jahr: Optional. Das Jahr, z.B. 2022. Auswählbar. Periode: Optional. Der Name der Periode, z.B. Januar. Auswählbar. Filtername: Optional. Der Name des Filters, den Sie zum Überwachen des Status der Enterprise-Journale erstellt haben. Hinweis: Obwohl alle Parameter optional sind, müssen Sie mindestens einen Filternamen oder ein Jahr und eine Periode angeben. |
Anteilsdaten neu berechnen |
Automatisiert die Aufgabe zum Neuberechnen von Anteilsdaten. Informationen hierzu finden Sie unter recomputeOwnershipData in der Dokumentation Mit EPM Automate arbeiten. |
Szenario: Der Name des Szenario, z.B. "Ist" Jahre: Jahr, z.B. GJ20 Periode: Der Name der Periode, z.B. Januar |
Batchregel ausführen |
Führt einen Batch mit Jobs aus, die in der Komponente Datenmanagement definiert wurden. |
Name: Name des auszuführenden Berichts, z.B. Dimensionszuordnung für POV-Pfad (Dimension, Cat, Per). Berichtsformattyp: Dateiformat des Berichts (PDF, XLSX oder HTML). Parameter: Anzahl und Werte der Parameter können je nach Bericht variieren. Location: - Der Speicherort des Berichts, z.B. Comma_Vision Ausführen als - Sie müssen diesen Parameter in der Registerkarte "Workflow" angeben. |
Geschäftsregel ausführen |
Startet eine Geschäftsregel. |
Name: Name einer Geschäftsregel exakt gemäß Definition. Parameter: Runtime Prompts in JSON-Syntax. Der Parametername sollte exakt mit der Angabe in der Regeldefinition identisch sein. Beispiel: { "MyScenario1":"Current", "MyVersion1":"BU Version_1", "ToEntity":"CA", "Rule_Level_Var":"AZ", "planType":"Plan1"} Das im folgenden Beispiel gezeigte Format wird ebenfalls unterstützt: "Scenario=Actual" "Entity=Total Geography" "Year=FY21" "Period=Apr" |
Geschäftsregelset ausführen |
Startet ein Geschäftsregelset. Regelsets ohne Runtime Prompts oder Runtime Prompts mit Standardwerten werden unterstützt. |
Name: Name eines Geschäftsregelsets exakt gemäß Definition. Parameter: Runtime Prompts in JSON-Syntax. Der Parametername sollte exakt mit der Angabe in der Regeldefinition identisch sein. Beispiel: { "MyScenario1":"Current", "MyVersion1":"BU Version_1", "ToEntity":"CA", "Rule_Level_Var":"AZ", "planType":"Plan1"} Das im folgenden Beispiel gezeigte Format wird ebenfalls unterstützt: "Scenario=Actual" "Entity=Total Geography" "Year=FY21" "Period=Apr" |
Konsolidierung ausführen |
Diese Aufgabe ist eine Utilityaufgabe, um die Konsolidierung auszuführen. Mit dieser Aufgabe wird der Benutzer aufgefordert, Parameter zum Ausführen der Aufgaben einzugeben, wie z.B. Scenario, Year, Period, und Entity. |
Scenario Year Period Entity - Mit einem Komma als Trennzeichen können mehrere Entitys hinzugefügt werden. |
Datenregel ausführen |
Führt eine Dataload-Regel von Data Management basierend auf der Start- und Endperiode aus, und importiert oder exportiert die von Ihnen angegebenen Optionen. |
Jobname: Der Name einer in der Komponente Datenmanagement definierten Dataload-Regel. Startperiode: Erste Periode, für die Daten geladen werden sollen. Dieser Periodenname muss in der Periodenzuordnung von Data Management definiert sein. Endperiode: Letzte Periode, für die Daten geladen werden sollen. Dieser Periodenname muss in der Periodenzuordnung von Data Management definiert sein. Importmodus: Bestimmt, wie die Daten in die Komponente Datenmanagement importiert werden. APPEND, um Anhänge an die vorhandene Regel zu erstellen POV-Daten in der Komponente Datenmanagement REPLACE, um die POV-Daten zu löschen und mit den Daten aus der Datei zu ersetzen. RECALCULATE, um den Datenimport zu überspringen. Die Daten werden jedoch mit aktualisierten Zuordnungen und logischen Konten neu verarbeitet. NONE, um den Datenimport in die Staging-Tabelle von Data Management zu überspringen. Exportmodus: Bestimmt, wie die Daten in die Komponente Datenmanagement exportiert werden. STORE_DATA, um die Daten in der Staging-Tabelle der Komponente Datenmanagement mit den vorhandenen Financial Consolidation and Close- oder Tax Reporting-Daten zusammenzuführen. ADD_DATA, um die Daten in der Staging-Tabelle der Komponente Datenmanagement zu Financial Consolidation and Close oder Tax Reporting hinzuzufügen. SUBTRACT_DATA, um die Daten in der Staging-Tabelle der Komponente Datenmanagement von den vorhandenen Financial Consolidation and Close- oder Tax Reporting-Daten abzuziehen. REPLACE_DATA, um die POV-Daten zu löschen und mit den Daten in der Staging-Tabelle von Data Management zu ersetzen. Die Daten werden für Szenario, Version, Jahr, Periode und Entity gelöscht. NONE, um den Datenexport aus der Komponente Datenmanagement in Financial Consolidation and Close oder Tax Reporting zu überspringen Dateiname: Optional. Wenn Sie keinen Dateinamen angeben, importiert diese API die Daten, die in der Datei enthalten sind, deren Name in der Dataload-Regel angegeben ist. Die Datendatei muss bereits vor der Datenregelausführung in der INBOX vorhanden sein. Ausführen als - Sie müssen diesen Parameter in der Registerkarte "Workflow" angeben. |
Erzwingen von Konsolidierung ausführen |
Diese Aufgabe ist eine Utilityaufgabe, um das Erzwingen der Konsolidierung auszuführen. Mit der Aufgabe wird der Benutzer aufgefordert, Parameter zum Ausführen der Aufgaben einzugeben, wie z.B. Scenario, Year, Period, und Entity. |
Scenario Year Period Entity - Mit einem Komma als Trennzeichen können mehrere Entitys hinzugefügt werden. |
Erzwingen von Umrechnung ausführen |
Diese Aufgabe ist eine Utilityaufgabe, um das Erzwingen der Umrechnung auszuführen. Mit der Aufgabe wird der Benutzer aufgefordert, Parameter zum Ausführen der Aufgaben einzugeben, wie z.B. Scenario, Year, Period, und Entity. |
Scenario Year Period Entity - Mit einem Komma als Trennzeichen können mehrere Entitys hinzugefügt werden. |
Führt die Umrechnung aus. |
Diese Aufgabe ist eine Utilityaufgabe, um die Umrechnung auszuführen. Mit der Aufgabe wird der Benutzer aufgefordert, Parameter zum Ausführen der Aufgaben einzugeben, wie z.B. Scenario, Year, Period, und Entity. |
Scenario Year Period Entity - Mit einem Komma als Trennzeichen können mehrere Entitys hinzugefügt werden. |
Automatisierungsintegrationen für Planning und Planning Modules
Integrationsname | Beschreibung | Parameter/Beschreibung |
---|---|---|
Cube löschen |
Löscht bestimmte Daten innerhalb von Eingabe- und Reporting-Cubes. |
Name: Name des Jobs zum Löschen des Cubes. |
Cube aktualisieren |
Aktualisiert den OLAP-Cube. |
Name: Name des Jobs zum Aktualisieren des Cubes. |
Export Data |
Exportiert Anwendungsdaten in eine Datei anhand der Datenexporteinstellungen, die in einem Job vom Typ "Daten exportieren" festgelegt sind, einschließlich Dateinamen. Die Datei mit den exportierten Daten wird im Repository gespeichert. |
Name: Name des Jobs zum Exportieren von Daten. Exportdateiname: Optional. Der Name der Datei, in die Daten exportiert werden sollen |
Daten importieren |
Importiert Daten aus einer Datei im Repository in die Anwendung anhand der Datenimporteinstellungen, die in einem Job vom Typ "Daten importieren" festgelegt sind. |
Name: Name des Jobs zum Importieren von Daten. Importdateiname: Optional. Der Name der Datei, aus der Daten importiert werden sollen |
Metadaten importieren |
Importiert Metadaten aus einer Datei im Repository in die Anwendung anhand der Metadatenimporteinstellungen, die in einem Job vom Typ "Metadaten importieren" festgelegt sind. |
Name: Name des in "Metadaten importieren" definierten Batches. |
Batch ausführen |
Führt einen Batch mit Jobs aus, die in der Komponente Datenmanagement definiert wurden. |
Name: Name des auszuführenden Berichts, z.B. Dimensionszuordnung für POV-Pfad (Dimension, Cat, Per). Berichtsformattyp: Dateiformat des Berichts (PDF, XLSX oder HTML). Parameter: Anzahl und Werte der Parameter können je nach Bericht variieren. Location: - Der Speicherort des Berichts, z.B. Comma_Vision |
Geschäftsregel ausführen |
Startet eine Geschäftsregel. |
Name: Name einer Geschäftsregel exakt gemäß Definition. Parameter: Runtime Prompts in JSON-Syntax. Der Parametername sollte exakt mit der Angabe in der Regeldefinition identisch sein. Beispiel: { "MyScenario1":"Current", "MyVersion1":"BU Version_1", "ToEntity":"CA", "Rule_Level_Var":"AZ", "planType":"Plan1"} Das im folgenden Beispiel gezeigte Format wird ebenfalls unterstützt: "Scenario=Actual" "Entity=Total Geography" "Year=FY21" "Period=Apr" |
Geschäftsregelset ausführen |
Startet ein Geschäftsregelset. Regelsets ohne Runtime Prompts oder Runtime Prompts mit Standardwerten werden unterstützt. |
Name: Der Name eines Geschäftsregelsets exakt gemäß Definition. Parameter: Runtime Prompts in JSON-Syntax. Der Parametername sollte exakt mit der Angabe in der Regeldefinition identisch sein. Beispiel: { "MyScenario1":"Current", "MyVersion1":"BU Version_1", "ToEntity":"CA", "Rule_Level_Var":"AZ", "planType":"Plan1"} Das im folgenden Beispiel gezeigte Format wird ebenfalls unterstützt: "Scenario=Actual" "Entity=Total Geography" "Year=FY21" "Period=Apr" |
Datenregel ausführen |
Führt eine Dataload-Regel von Data Management basierend auf der Start- und Endperiode aus, und importiert oder exportiert die von Ihnen angegebenen Optionen. |
Jobname: Der Name einer in der Komponente Datenmanagement definierten Dataload-Regel. Startperiode: Erste Periode, für die Daten geladen werden sollen. Dieser Periodenname muss in der Periodenzuordnung von Data Management definiert sein. Endperiode: Letzte Periode, für die Daten geladen werden sollen. Dieser Periodenname muss in der Periodenzuordnung von Data Management definiert sein. Importmodus: Bestimmt, wie die Daten in die Komponente Datenmanagement importiert werden. APPEND, um Anhänge an die vorhandene Regel zu erstellen POV-Daten in der Komponente Datenmanagement REPLACE, um die POV-Daten zu löschen und mit den Daten aus der Datei zu ersetzen. RECALCULATE, um den Datenimport zu überspringen. Die Daten werden jedoch mit aktualisierten Zuordnungen und logischen Konten neu verarbeitet. NONE, um den Datenimport in die Staging-Tabelle von Data Management zu überspringen. exportMode: Bestimmt, wie die Daten in die Komponente Datenmanagement exportiert werden. STORE_DATA, um die Daten in der Staging-Tabelle der Komponente Datenmanagement mit den vorhandenen Oracle Hyperion Planning-Daten zusammenzuführen. ADD_DATA, um die Daten in der Staging-Tabelle der Komponente Datenmanagement zu Planning hinzuzufügen. SUBTRACT_DATA, um die Daten in der Staging-Tabelle der Komponente Datenmanagement von den vorhandenen Planning-Daten zu subtrahieren. REPLACE_DATA, um die POV-Daten zu löschen und mit den Daten in der Staging-Tabelle von Data Management zu ersetzen. Die Daten werden für Szenario, Version, Jahr, Periode und Entity gelöscht. NONE, um den Datenexport aus der Komponente Datenmanagement in Planning zu überspringen. Dateiname: Optional. Wenn Sie keinen Dateinamen angeben, importiert diese API die Daten, die in der Datei enthalten sind, deren Name in der Dataload-Regel angegeben ist. Die Datendatei muss bereits vor der Datenregelausführung in der INBOX vorhanden sein. |
Automatisierungsintegrationen für Profitability and Cost Management
Integrationsname | Beschreibung | Parameter/Beschreibung |
---|---|---|
Datenzugriffsberechtigungen anwenden |
Wendet Datenzugriffsberechtigungen für eine bestimmte Profitability and Cost Management-Anwendung an. Diese API leitet einen Job weiter, um die Datenzugriffsberechtigungen in Essbase zu erstellen und anzuwenden. Diese API entfernt alle vorhandenen Datenzugriffsberechtigungen in Oracle Essbase und erstellt sie neu mit den aktuellen Informationen aus der Anwendung. Sie kann auch verwendet werden, um Probleme bei Datenzugriffberechtigungen zu beheben, falls vorhanden. | Keine |
ML-Cube bereitstellen |
Stellt den Berechnungs-Cube für eine ausgewählte Profitability and Cost Management-Anwendung bereit oder erneut bereit. |
isKeepData: - Angabe, ob vorhandene Daten beibehalten werden sollen isReplacecube: - Angabe, ob vorhandene Daten ersetzt werden sollen comment: - Alle Benutzerkommentare |
ML-Cube ausführen |
Führt Berechnungen für eine ausgewählte Anwendung aus, oder löscht sie. Wird mit Managementhauptbuch verwendet. |
povGroupMember - Das POV-Gruppenelement, für das Berechnungen ausgeführt werden sollen, z.B. 2015_January_Actual isClearCalculated: - Angabe, ob die Berechnungsdaten gelöscht werden sollen (wahr oder falsch) subsetStart: - Startabfolgenummer des Regelsets subsetEnd: - Endabfolgenummer des Regelsets Rule: Regelname für SINGLE_RULE ruleSetName: - Regelsetname für eine SINGLE_RULE-Option exeType: - Der Ausführungstyp gibt an, welche Regel ausgeführt werden soll. Mögliche Werte sind ALL_RULES, RULESET_SUBSET, SINGLE_RULE. Basierend auf dem exeType-Wert sind andere Parameter erforderlich. exeType - ALL_RULES überschreibt alle anderen Optionen, z.B. subsetStart, subsetEnd, ruleSetName, ruleName usw. exeType - RULESET_SUBSET berücksichtigt nur subsetStart und subsetEnd. exeType - SINGLE_RULE berücksichtigt nur ruleSetName und ruleName. Comment: Kommentartext verwenden. Delimiter: Trennzeichen für Zeichenfolgen für POV-Gruppenelemente, z.B. Unterstrich (_) |
ML-POV löschen |
Löscht für alle Anwendungen Modellartefakte und -daten aus einer POV-Kombination. |
POV GroupMember: Das POV-Gruppenelement, für das Berechnungen ausgeführt werden sollen, z.B. 2015_January_Actual isManageRule - Angabe, ob die Programmregeldetails gelöscht werden sollen isInputData - Angabe, ob Eingabedaten gelöscht werden sollen IsAllocatedValues - Angabe, ob umgelegte Werte gelöscht werden sollen stringDelimiter: - Trennzeichen für Zeichenfolgen für POV-Gruppenelemente |
ML-POV kopieren |
Kopiert für alle Anwendungen Modellartefakte und -daten aus einer Quell-POV-Kombination in eine Ziel-POV-Kombination. Wird mit Anwendungen von Managementhauptbuch verwendet. |
POVs: Im Pfad enthalten. srcPOVMemberGroup: - Quell-POV-Elementgruppe, z.B. 2014_January_Actual destPOVMemberGroup: - Ziel-POV-Elementgruppe, z.B. 2014_March_Actual isManageRule: - Angabe, ob die Programmregeldetails kopiert werden sollen isInputData: - Angabe, ob Eingabedaten kopiert werden sollen modelViewName: - Angabe, ob ein Datensegment aus dem Quell-POV in den Ziel-POV kopiert werden soll Ziel-POV erstellen: Angabe, ob der Ziel-POV erstellt werden soll, falls er nicht bereits vorhanden ist. Trennzeichen für Zeichenfolgen: Trennzeichen für Zeichenfolgen für POV-Gruppenelemente. |
Datenregel ausführen |
Führt eine Dataload-Regel von Data Management basierend auf der Start- und Endperiode aus, und importiert oder exportiert die von Ihnen angegebenen Optionen. |
Jobname: Der Name einer in der Komponente Datenmanagement definierten Dataload-Regel. Startperiode: Erste Periode, für die Daten geladen werden sollen. Dieser Periodenname muss in der Periodenzuordnung von Data Management definiert sein. Endperiode: Letzte Periode, für die Daten geladen werden sollen. Dieser Periodenname muss in der Periodenzuordnung von Data Management definiert sein. Importmodus: Bestimmt, wie die Daten in die Komponente Datenmanagement importiert werden. APPEND, um Anhänge an die vorhandene Regel zu erstellen POV-Daten in der Komponente Datenmanagement. REPLACE, um die POV-Daten zu löschen und mit den Daten aus der Datei zu ersetzen. RECALCULATE, um den Datenimport zu überspringen. Die Daten werden jedoch mit aktualisierten Zuordnungen und logischen Konten neu verarbeitet. NONE, um den Datenimport in die Staging-Tabelle von Data Management zu überspringen. Exportmodus: Bestimmt, wie die Daten in die Komponente Datenmanagement exportiert werden. STORE_DATA, um die Daten in der Staging-Tabelle der Komponente Datenmanagement mit den vorhandenen Profitability and Cost Management-Daten zusammenzuführen. ADD_DATA, um die Daten in der Staging-Tabelle der Komponente Datenmanagement zu Profitability and Cost Management hinzuzufügen. SUBTRACT_DATA, um die Daten in der Staging-Tabelle der Komponente Datenmanagement von vorhandenen Profitability and Cost Management-Daten zu subtrahieren. REPLACE_DATA, um die POV-Daten zu löschen und mit den Daten in der Staging-Tabelle von Data Management zu ersetzen. Die Daten werden für Szenario, Version, Jahr, Periode und Entity gelöscht. NONE, um den Datenexport aus der Komponente Datenmanagement in Profitability and Cost Management zu überspringen. Dateiname: Optional. Wenn Sie keinen Dateinamen angeben, importiert diese API die Daten, die in der Datei enthalten sind, deren Name in der Dataload-Regel angegeben ist. Die Datendatei muss bereits vor der Datenregelausführung in der INBOX vorhanden sein. |
Batchregel ausführen |
Führt einen Batch mit Jobs aus, die in der Komponente Datenmanagement definiert wurden. |
Jobname: Der Name eines in der Komponente Datenmanagement definierten Batches. |
Dimension aktualisieren |
Lädt eine neue Flat File für die Dimension für eine Anwendung hoch, die mit einer Flat File erstellt wurde. Dies ist eine prozessautomatisierte Integration. Informationen hierzu finden Sie unter Dimension als Job aktualisieren in der Dokumentation REST-APIs. |
Dateiname: Datendateiname
Trennzeichen: Optionaler Parameter |