Die folgenden vordefinierten Integrationen sind verfügbar:
Um die vordefinierten EPM Cloud-Integrationen zu verwenden, müssen Sie Parameter für die Integration angeben. Viele Parameter für automatisierte Integrationen können aus Dropdown-Listen ausgewählt werden, sodass eine manuelle Eingabe von Werten entfällt. Beispiel: Um eine Regel oder ein Regelset auszuführen, können Sie die entsprechende Option aus einer Liste mit Geschäftsregeln auswählen, z.B. "ForceConsolidate" oder "ForceTranslate".
Einen Überblick über die Task Manager-Integrationen finden Sie unter Task Manager-Integrationen verwalten.
Automatisierungsintegrationen für EPM Cloud-Plattform
Integrationsname/-modul | Modul | Beschreibung | Parameter/Beschreibung |
---|---|---|---|
Datei aus Planning kopieren | Alle EPM Cloud-Services außer Enterprise Data Management |
Kopiert eine Datei aus dem aktuellen Service, wenn Task Manager für einen anderen EPM Cloud-Service konfiguriert wurde. Beispiel: Wenn Sie Task Manager in Planning konfiguriert und eine Account Reconciliation-Verbindung eingerichtet haben, wird die Datei mit der Option zum Kopieren der Datei ausPlanning von Planning in Account Reconciliation kopiert. |
Dateiname: Name der zu kopierenden Datei. Datei speichern unter: Name der zu speichernden Datei. Dieser Name kann vom ursprünglichen Dateinamen abweichen. Name des externen Verzeichnisses (optional): Name des Verzeichnisses. |
Datei in Planning kopieren | Alle EPM Cloud-Services außer Enterprise Data Management | Kopiert eine Datei in den aktuellen Service, wenn Task Manager aus einem anderen EPM Cloud-Service konfiguriert wurde. |
Dateiname: Name der zu kopierenden Datei. Datei speichern unter: Name der zu speichernden Datei. Dieser Name kann vom ursprünglichen Dateinamen abweichen. Name des externen Verzeichnisses (optional): Name des Verzeichnisses. |
Datei aus Planning löschen | Alle EPM Cloud-Services außer Enterprise Data Management | Löscht eine Datei aus einem EPM Cloud-Service. |
Dateiname: Name der zu löschenden Datei. |
Komponente "Datenintegration" sperren/entsperren | Alle EPM Cloud-Services außer Enterprise Data Management | Sperrt oder entsperrt eine Integration für einen Standort, eine Kategorie und eine Periode in der Komponente "Datenaustausch". Hierbei handelt es sich um eine prozessautomatisierte Integration. |
Vorgang: Wählen Sie aus, ob gesperrt oder entsperrt werden soll. Sperrtyp: Wählen Sie aus, ob der Vorgang zum Sperren/Entsperren für eine Anwendung oder für einen Standort ausgeführt werden soll. Periode: Geben Sie die POV-Periode aus der Integration oder Dataload-Regel an, die in der Komponente "Datenaustausch" definiert wurde, z.B. "Jan-21". Kategorie: Geben Sie den vordefinierten Szenariowert basierend auf der POV-Kategorie aus der Integrationsdefinition (Datenregel) an. Die verfügbaren Kategorien sind die, die Sie im Setup der Komponente "Datenintegration" erstellt haben, z.B. "Ist". Anwendung (optional): Wenn der ausgewählte Sperrtyp "Anwendung" lautet, geben Sie den Namen der Anwendung an, z.B. "Vision". Speicherort (optional): Wenn der ausgewählte Sperrtyp "Speicherort" lautet, geben Sie den Namen des Speicherorts an. Wenn der Speicherort gesperrt ist, können keine Daten darin geladen werden. Entsperren nach Speicherort (optional): Dieser Parameter kann angegeben werden, wenn der ausgewählte Vorgang "Sperren" und der ausgewählte Speicherort "Anwendung" lauten. Wenn diese Option beim Sperren der Zielanwendung aktiviert ist, werden alle am Standort vorhandenen Regeln unter der Zielanwendung gesperrt. Eine Sperre auf Anwendungsebene erfolgt nicht. Weitere Informationen finden Sie unter POV sperren und entsperren |
Datenintegration ausführen | Alle EPM Cloud-Services außer Enterprise Data Management und Profitability and Cost Management | Führen Sie eine Integration oder Dataload-Regel basierend auf Periodenverarbeitung und Quellfiltern aus. Dies ermöglicht die einfache Integration der in der Komponente "Datenaustausch" definierten Dataloads in den monatlichen Verarbeitungszeitplan. |
Jobtyp: Integration Integrationsname: Name der in der Komponente "Datenintegration" definierten Integration Periodenname: Name der Periode. Importmodus: Bestimmt, wie die Daten in die Komponente "Datenintegration" importiert werden. Exportmodus: Bestimmt, wie die Daten in die Komponente "Datenintegration" exportiert werden. Dateiname: Gilt nur für native dateibasierte Dataloads und wird ignoriert, falls er für andere Arten von Ladevorgängen angegeben ist. Quellfilter: Parameter für die Aktualisierung der für die Dataload-Regel oder Integration definierten Quellfilter. Zieloptionen: Parameter für die Aktualisierung der für die Dataload-Regel oder Integration definierten Zieloptionen. Ausführungsmodus: Gilt nur für Integrationen mit dem Schnellmodus. Ausführliche Informationen zu diesen Parametern finden Sie unter Integrationen ausführen in der Dokumentation REST-API für Oracle Enterprise Performance Management Cloud. |
Pipeline ausführen | Alle EPM Cloud-Services außer Enterprise Data Management und Account Reconciliation | Führt eine Pipeline basierend auf ausgewählten Jobparametern und Variablen aus. |
Jobtyp: Pipeline. Jobname: Für die Pipeline in der Komponente "Datenintegration" definierter Pipelinecode. Startperiode: Die erste Periode, für die Daten geladen werden sollen. Dieser Periodenname muss in der Periodenzuordnung der Komponente "Datenintegration" definiert sein. Endperiode: Die letzte Periode, für die Daten geladen werden sollen. Dieser Periodenname muss in der Periodenzuordnung der Komponente "Datenintegration" definiert sein. Importmodus: Bestimmt, wie die Daten in die Komponente "Datenintegration" importiert werden. Exportmodus: Bestimmt, wie die Daten in die Komponente "Datenintegration" exportiert werden. Logs anhängen: Gibt an, ob Logs als E-Mail-Anhang aufgenommen werden. E-Mail senden: Bestimmt, wann beim Ausführen einer Pipeline eine E-Mail gesendet wird. Senden an: Bestimmt die E-Mail-ID des Empfängers der E-Mail-Benachrichtigung. Ausführliche Informationen zu diesen Parametern finden Sie unter Pipeline ausführen in der Dokumentation REST-API für Oracle Enterprise Performance Management Cloud. |
Weitere Informationen finden Sie unter Integrationsdateien kopieren und löschen.
Automatisierungsintegrationen für Account Reconciliation
Integrationsname/-modul | Modul | Beschreibung | Parameter/Beschreibung |
---|---|---|---|
Periodenstatus ändern | Abstimmungscompliance |
Ändert den Status einer Periode (Offen, Geschlossen, Anstehend, Gesperrt). |
Period: Der Name der Periode Status : Anstehend, Offen, Geschlossen, Gesperrt |
Periodenendabstimmungen erstellen | Abstimmungscompliance |
Kopiert alle ausgewählten Profile in eine Periode und gibt den Status "Erfolgreich" oder "Fehler" zurück |
Period: Der Name der Periode Filter: Der Name des Filters, der mit der Abstimmung übereinstimmt |
Salden importieren | Abstimmungscompliance |
Importiert Saldendaten mit der Komponente "Datenmanagement" aus einer zuvor erstellten Dataload-Definition |
Period: Der Name der Periode dl_Definition: - Der Name eines zuvor gespeicherten Dataloads mit dem Format "DL_name", z.B. DL_test |
Vorab zugeordnete Salden importieren | Abstimmungscompliance |
Importiert vorab zugeordnete Salden |
Period: Der Name der Periode BalanceType: SUB|SRC für Untersystem oder Quellsystem CurrencyBucket: Währungsgruppe, z.B. "Funktional" File: Der Name der Datei mit Bezug auf die Inbox, z.B. "balances.csv". Die Datei muss mit EPM Automate oder REST-API in ARCS hochgeladen werden. |
Vorab zugeordnete Transaktionen importieren | Abstimmungscompliance |
Importiert vorab zugeordnete Transaktionen für eine bestimmte Periode |
TransactionType: Zulässige Transaktionstypen sind BEX (Geklärter Saldo), SRC (Anpassung an Quellsystem) und SUB (Anpassung an Untersystem). File: Der Name der Datei mit Bezug auf die Inbox, z.B. "transactions.csv". Die Datei muss mit EPM Automate oder REST-API in ARCS hochgeladen werden. DateFormat: Datumsformat, z.B. MM/tt/jjjj, tt/MM/jjjj, tt-MMM-jj, MMM t, jjjj oder "Alle". |
Vorab zugeordnete Transaktionen importieren | Transaktionsabgleich |
Importiert eine Datei mit vorab zugeordneten Transaktionen in den Transaktionsabgleich |
DataSource: Die Text-ID der Datenquelle, in die die Transaktion importiert wird File: Der Name der Datei mit Bezug auf die Inbox, z.B. "transactions.csv". Die Datei muss mit EPM Automate oder REST-API in ARCS hochgeladen werden. ReconciliationType: Die Text-ID des Abstimmungstyps, in den die Transaktionsdatei importiert wird, z.B. Bank zu HB. DateFormat: Datumsformat, z.B. MM/tt/jjjj, tt/MM/jjjj, MM-tt-jjjj, t-M-jjjj, tt-MMM-jj, MMM t, jjjj |
Profile importieren | Abstimmungscompliance |
Importiert Profile für eine bestimmte Periode |
ImportType: Der Importtyp Unterstützte Werte lauten "Ersetzen" und "Alle ersetzen" Period: Periode, für die der Import durchgeführt werden soll ProfileType: Der Profiltyp Unterstützte Werte sind "Profile" und "Untergeordnete Elemente" File: Der Name der Datei mit Bezug auf die Inbox, z.B. "profiles.csv". Die Datei muss mit EPM Automate oder REST-API in ARCS hochgeladen werden. DateFormat: Datumsformat, z.B. MM/tt/jjjj, tt/MM/jjjj, t-M-jjjj, tt-MMM-jj, MMM t, jjjj oder "Alle" |
Kurse importieren | Abstimmungscompliance |
Importiert Kurse für eine bestimmte Periode und einen bestimmen Kurstyp |
Period: Der Name der Periode RateType: Der Kurstyp, z.B. Buchung Kurse importieren (Abstimmungscompliance) File: Der Name der Datei mit Bezug auf die Inbox, z.B. "rates.csv". Die Datei muss mit EPM Automate oder REST-API in ARCS hochgeladen werden. ImportType: Unterstützte Importtypen sind "Replace" und "ReplaceAll". |
Abstimmungen überwachen | Abstimmungscompliance |
Überwacht eine Liste von Abstimmungen in ARCS. |
Period: Der Name der Periode Filter: Für Abfrage der Liste mit Abstimmungen verwendete Filterzeichenfolge |
Automatischen Abgleich ausführen | Transaktionsabgleich |
Führt den Prozess für automatische Abstimmungen im Modul "Transaktionsabgleich" aus |
ReconTypeId: Die Text-ID des Abstimmungstyps, der automatisch abgeglichen werden soll |
Abstimmungen anzeigen |
Abstimmungscompliance |
Zeigen Sie Abstimmungen für eine bestimmte Periode an. |
Period: Der Name der Periode Saved List: Der Name einer öffentlichen gespeicherten Liste |
Transaktionen anzeigen |
Transaktionsabgleich |
Zeigen Sie Transaktionen für eine bestimmte Periode an. |
Period: Der Name der Periode Saved List: Der Name einer öffentlichen gespeicherten Liste |
Automatisierungsintegrationen für Enterprise Data Management
Integrationsname | Beschreibung | Parameter/Beschreibung |
---|---|---|
Dimension exportieren |
Exportiert eine Dimension aus Enterprise Data Management in eine konfigurierte Verbindung. Hierbei handelt es sich um eine prozessautomatisierte Integration. Informationen hierzu finden Sie unter Vordefinierte Integrationen in EPM Cloud hinzufügen. |
Anwendung: Der Name der Enterprise Data Management-Anwendung, aus der die Dimension exportiert werden soll. Dimension: Der Name der zu exportierenden Dimension. Verbindung: Optional. Der Name der Verbindung, in die die Dimension exportiert werden soll. Dateiname: Datei und Pfad, aus denen die Dimension exportiert werden soll. |
Dimensionszuordnung exportieren |
Exportiert eine Dimensionszuordnung aus Enterprise Data Management in eine konfigurierte Verbindung. Hierbei handelt es sich um eine prozessautomatisierte Integration. |
Anwendung: Der Name der Enterprise Data Management-Anwendung, aus der die Dimensionszuordnung exportiert werden soll. Dimension: Der Name der zu exportierenden Dimensionszuordnung. Verbindung: Optional. Der Name der Verbindung, in die die Dimensionszuordnung exportiert werden soll. Zuordnungsspeicherort: Der Speicherort, in den die Dimensionszuordnung exportiert werden soll. Dateiname: Datei und Pfad, aus denen die Dimensionszuordnung exportiert werden soll. |
Dimension importieren |
Importiert eine Dimension aus einer konfigurierten Verbindung in eine Enterprise Data Management-Anwendung. Hierbei handelt es sich um eine prozessautomatisierte Integration. Informationen hierzu finden Sie unter Vordefinierte Integrationen in EPM Cloud hinzufügen. |
Anwendung: Der Name der Enterprise Data Management-Anwendung, in die die Dimension importiert werden soll. Dimension: Der Name der zu importierenden Dimension. Verbindung: Der Name der Verbindung, aus der die Dimension importiert werden soll. Dateiname: Datei und Pfad, aus denen die Dimension importiert werden soll. Importoption: Optional. Bestimmt, wie die Daten in Enterprise Data Management importiert werden. |
Dimension extrahieren | Extrahiert eine Dimension aus Enterprise Data Management in eine konfigurierte Verbindung. Hierbei handelt es sich um eine prozessautomatisierte Integration. |
Anwendung: Der Name der Enterprise Data Management-Anwendung, aus der die Dimension extrahiert werden soll. Dimension: Der Name der zu extrahierenden Dimension. Extraktion: Der Name der Extraktion. Verbindung: Der Name der Verbindung, in die die Dimension extrahiert werden soll. Dateiname: Datei und Pfad, aus denen die Dimension extrahiert werden soll. |
Automatisierungsintegrationen für Enterprise Profitability and Cost Management
Integrationsname | Beschreibung | Parameter/Beschreibung |
---|---|---|
Modell berechnen | Berechnet ein Modell für einen oder mehrere Points of View. |
Jobtyp: Modell berechnen Jobname: Name des Jobs POV-Trennzeichen: Trennzeichen in POV-Werten. Das Standardtrennzeichen ist ein "_" (Unterstrich). Das Trennzeichen muss in doppelte Anführungszeichen gesetzt werden. Es werden nur die folgenden Trennzeichen unterstützt:
POV-Name: Name des zu berechnenden POV. Sie können einen oder mehrere durch Komma (,) getrennte POVs übergeben. Modellname: Name des zu berechnenden Modells Ausführungstyp: Gibt den Regelausführungstyp an. Überwachungsaufgabe: Überwacht eine andere Anwendung, die auf eine Aktion oder einen Status wartet. Regelname: Name der auszuführenden einzelnen Regel Erste Abfolgenummer des Regelsets: Abfolgenummer der ersten Regel im auszuführenden Regelset Letzte Abfolgenummer des Regelsets: Abfolgenummer der letzten Regel im auszuführenden Regelset Vorhandene Berechnungen löschen: Angabe, ob vorhandene Berechnungen gelöscht werden sollen Berechnungen ausführen: Angabe, ob Berechnungen ausgeführt werden sollen Für Reporting optimieren: Angabe, ob der Berechnungsprozess für das Reporting optimiert werden soll Debuggingskripte generieren: Angabe, ob Debuggingskripte generiert werden sollen Kommentar: Kommentare zur Beschreibung des Jobs |
Cube löschen | Löscht bestimmte Daten in den Cubes PCM_CLC und PCM_REP. |
Jobtyp: Cube löschen Jobname: Name des Jobs |
Daten nach Point of View löschen | Löscht Daten aus einem Point of View, ohne den Point of View zu entfernen. |
Jobtyp: POV löschen Jobname: Name des Jobs POV-Trennzeichen: Trennzeichen in POV-Werten. Das Trennzeichen muss in doppelte Anführungszeichen gesetzt werden. Außer Kommas werden die folgenden Trennzeichen unterstützt:
POV-Name: Name des zu löschenden POV Cube-Name: Name des Cubes, für den der Löschvorgang ausgeführt werden soll Eingabedaten löschen: Angabe, ob Eingabedaten gelöscht werden sollen Umgelegte Daten löschen: Angabe, ob umgelegte Daten gelöscht werden sollen Anpassungsdaten löschen: Angabe, ob Anpassungsdaten gelöscht werden sollen |
Daten nach Point of View kopieren | Kopiert Daten aus einem Point of View in einen anderen. |
Jobtyp: POV kopieren Jobname: Name des Jobs POV-Trennzeichen: Trennzeichen in POV-Werten. Das Trennzeichen muss in doppelte Anführungszeichen gesetzt werden. Außer Kommas werden die folgenden Trennzeichen unterstützt:
Quell-POV: Name des Quell-POV Ziel-POV: Name des Ziel-POV Typ kopieren: Gibt die aus der Quelle zu kopierenden Daten an. Name des Quell-Cubes: Name des Quell-Cubes Name des Ziel-Cubes: Name des Ziel-Cubes |
Cube aktualisieren |
Aktualisiert den OLAP-Cube |
Jobtyp: Cube aktualisieren Jobname: Name des Jobs |
Daten exportieren | Exportiert Anwendungsdaten in eine Datei unter Verwendung der Datenexporteinstellungen (einschließlich Dateiname), die in einem Job vom Typ "Daten exportieren" angegeben sind Die Datei mit den exportierten Daten wird im Repository gespeichert. |
Jobtyp: Daten exportieren Jobname: Name des Jobs Exportdateiname: Name der Datei, in die Daten exportiert werden sollen |
Datenzuordnung exportieren |
Exportiert eine in der Komponente "Datenmanagement" definierte Datenzuordnung an einen angegebenen Speicherort. Hierbei handelt es sich um eine prozessautomatisierte Integration. Weitere Informationen finden Sie unter Vordefinierte Integrationen in EPM Cloud hinzufügen. Elementzuordnungen definieren Beziehungen zwischen Quellelementen und Zieldimensionselementen in einer einzelnen Dimension. |
Jobtyp: Datenzuordnung exportieren Dimension: Der Name einer bestimmten zu importierenden Dimension, z.B. ACCOUNT, oder ALL für den Import aller Dimensionen Dateiname: Datei und Pfad, aus denen Zuordnungen importiert werden sollen. Das Dateiformat kann CSV, TXT, XLS oder XLSX lauten. Nehmen Sie die Outbox in den Dateipfad auf, z.B. outbox/BESSAPPJan-06.csv. Speicherortname: Name des Speicherorts, in den exportiert werden soll |
Metadaten exportieren | Exportiert Metadaten aus einer Datei im Repository in die Anwendung anhand der Metadatenexporteinstellungen, die in einem Job vom Typ "Metadaten exportieren" festgelegt sind. |
Jobtyp: Metadaten exportieren Jobname: Name eines Batches, der im Job zum Exportieren von Metadaten definiert ist Export-ZIP-Dateiname: Name der ZIP-Datei für die exportierten Metadaten |
Daten importieren | Importiert Daten aus einer Datei im Repository in die Anwendung unter Verwendung der Datenimporteinstellungen, die in einem Job vom Typ "Daten importieren" angegeben sind |
Jobtyp: Daten importieren Jobname: Name des Jobs Importdateiname: Name der Datei, aus der Daten importiert werden sollen |
Datenzuordnung importieren |
Importiert eine in der Komponente "Datenmanagement" definierte Datenzuordnung an einen angegebenen Speicherort. Hierbei handelt es sich um eine prozessautomatisierte Integration. Elementzuordnungen definieren Beziehungen zwischen Quellelementen und Zieldimensionselementen in einer einzelnen Dimension. Sie können Elementzuordnungen aus einer ausgewählten Excel-, CSV- oder TXT-Datei importieren. |
Jobtyp: Datenzuordnung importieren Dimension: Name einer bestimmten zu importierenden Dimension, z.B. ACCOUNT, oder ALL für den Import aller Dimensionen Dateiname: Datei und Pfad, aus denen Zuordnungen importiert werden sollen. Das Dateiformat kann CSV, TXT, XLS oder XLSX lauten. Die Datei muss vor dem Import entweder in die Inbox oder in ein Unterverzeichnis der Inbox hochgeladen werden. Nehmen Sie die Inbox in den Dateipfad auf, z.B. inbox/BESSAPPJan-06.csv. Importmodus: MERGE zum Hinzufügen neuer Regeln oder zum Ersetzen vorhandener Regeln oder REPLACE zum Löschen vorheriger Zuordnungsregeln vor der Import Validierungsmodus: Angabe, ob der Validierungsmodus verwendet werden soll oder nicht: true oder false. Bei "true" werden die Zielelemente anhand der Zielanwendung validiert. Bei "false" wird die Zuordnungsdatei ohne Validierungen geladen. Beachten Sie, dass der Validierungsprozess ressourcenintensiv ist und länger als der Validierungsmodus false dauert. Daher wählen die meisten Kunden die Option false aus. Speicherort: Speicherort in der Komponente Datenmanagement, an dem die Zuordnungsregeln geladen werden sollen. Zuordnungsregeln sind für einen Speicherort in der Komponente Datenmanagement spezifisch. |
Metadaten importieren | Importiert Metadaten aus einer Datei im Repository in die Anwendung unter Verwendung der Metadatenimporteinstellungen, die in einem Job vom Typ "Metadaten importieren" angegeben sind, in die Anwendung. |
Jobtyp: Metadaten importieren Jobname: Name eines Batches, der im Job zum Importieren von Metadaten definiert ist Import-ZIP-Dateiname: Name der ZIP-Datei für die importierten Metadaten |
Komponente "Datenintegration" sperren/entsperren | Sperrt oder entsperrt eine Integration für einen Standort, eine Kategorie und eine Periode in der Komponente "Datenaustausch". Hierbei handelt es sich um eine prozessautomatisierte Integration. |
Jobtyp: Komponente "Datenintegration" sperren/entsperren Vorgang: Sperren oder Entsperren Sperrtyp: Angabe, ob der Sperr-/Entsperrvorgang für eine Anwendung oder einen Speicherort gilt Periode: Periode des POV aus der in der Komponente "Datenaustausch" definierten Integration oder Dataload-Regel, z.B. "Jan-21" Kategorie: Vordefinierter Wert für "Szenario" basierend auf der POV-Kategorie aus der Integrations- bzw. Datenregeldefinition. Die verfügbaren Kategorien sind die, die Sie im Setup der Komponente "Datenintegration" erstellt haben, z.B. "Ist". Anwendung (optional): Name der Anwendung, wenn der ausgewählte Sperrtyp "Anwendung" lautet. Beispiel: "Vision". Speicherort (optional): Name des Speicherorts, wenn der ausgewählte Sperrtyp "Speicherort" lautet. Wenn der Speicherort gesperrt ist, können keine Daten darin geladen werden. Entsperren nach Speicherort (optional): Dieser Parameter kann angegeben werden, wenn der ausgewählte Vorgang "Sperren" und der ausgewählte Speicherort "Anwendung" lauten. Wenn diese Option beim Sperren der Zielanwendung aktiviert ist, werden alle am Standort vorhandenen Regeln unter der Zielanwendung gesperrt. Eine Sperre auf Anwendungsebene erfolgt nicht. Weitere Informationen finden Sie unter POV sperren und entsperren |
Batch ausführen | Führt einen Batch mit Jobs aus, die in der Komponente Datenmanagement definiert wurden |
Jobtyp: Batch ausführen Batchname: Name des auszuführenden Batches, z.B. Pfad für den Bericht "Dimensionszuordnung für POV (Dimension, Cat, Per)" Berichtsformattyp: Das Dateiformat des Berichts (PDF, XLSX oder HTML) Parameter: Anzahl und Werte der Parameter können je nach Bericht variieren. Location: - Der Speicherort des Berichts, z.B. Comma_Vision Ausführen als: Geben Sie diesen Parameter in der Registerkarte "Workflow" an. |
Geschäftsregel ausführen | Eine Geschäftsregel wird gestartet. |
Jobtyp: Geschäftsregel ausführen Regelname: Name der Geschäftsregel Parameter: Runtime Prompts in JSON-Syntax. Der Parametername muss mit dem in der Regeldefinition definierten Namen übereinstimmen. Beispiel: {"MyScenario1":"Current", "MyVersion1":"BU Version_1", "ToEntity":"CA", "Rule_Level_Var":"AZ", "planType":"Plan1"} Das folgende Format wird ebenfalls unterstützt. Beispiel: "Scenario=Actual" "Entity=Total Geography" "Year=FY21" "Period=Apr" |
Geschäftsregelset ausführen | Startet ein Geschäftsregelset. Regelsets ohne Runtime Prompts oder Runtime Prompts mit Standardwerten werden unterstützt. |
Jobtyp: Geschäftsregelset ausführen Jobname: Name des Jobs Regelsetname: Name des Geschäftsregelsets Parameter: Runtime Prompts in JSON-Syntax. Der Parametername muss mit dem in der Regeldefinition definierten Namen übereinstimmen. Beispiel: {"MyScenario1":"Current", "MyVersion1":"BU Version_1", "ToEntity":"CA", "Rule_Level_Var":"AZ", "planType":"Plan1"} Das folgende Format wird ebenfalls unterstützt. Beispiel: "Scenario=Actual" "Entity=Total Geography" "Year=FY21" "Period=Apr" |
Datenintegration ausführen | Führen Sie eine Integration oder Dataload-Regel basierend auf Periodenverarbeitung und Quellfiltern aus. Dies ermöglicht die einfache Integration der in der Komponente "Datenaustausch" definierten Dataloads in den monatlichen Verarbeitungszeitplan. |
Jobtyp: Datenintegration ausführen Integrationsname: Name der in der Komponente Datenintegration definierten Integration Periodenname: Name der Periode Importmodus: Bestimmt, wie die Daten in die Komponente Datenintegration importiert werden Exportmodus: Bestimmt, wie die Daten in die Komponente Datenintegration exportiert werden Dateiname: Gilt nur für native dateibasierte Dataloads und wird ignoriert, falls er für andere Arten von Ladevorgängen angegeben ist Quellfilter: Parameter zum Aktualisieren der für die Dataload-Regel oder Integration definierten Quellfilter Zieloptionen: Parameter zum Aktualisieren der für die Dataload-Regel oder Integration definierten Zieloptionen Ausführungsmodus: Gilt nur für Integrationen mit dem Schnellmodus Ausführliche Informationen zu diesen Parametern finden Sie unter Integrationen ausführen in der Dokumentation REST-API für Oracle Enterprise Performance Management Cloud. |
Datenregel ausführen | Führt eine Dataload-Regel von Data Management basierend auf der Start- und Endperiode aus, und importiert oder exportiert die von Ihnen angegebenen Optionen. |
Jobtyp: Datenregel ausführen Datenregelname: Name einer in der Komponente Datenmanagement definierten Dataload-Regel Startperiode: Die erste Periode, für die Daten geladen werden sollen. Dieser Periodenname muss in der Periodenzuordnung von Data Management definiert sein. Endperiode: Die letzte Periode, für die Daten geladen werden sollen. Dieser Periodenname muss in der Periodenzuordnung von Data Management definiert sein. Importmodus: Bestimmt, wie die Daten in die Komponente Datenmanagement importiert werden:
Exportmodus: Bestimmt, wie die Daten in die Komponente Datenmanagement exportiert werden:
Dateiname: Wenn Sie keinen Dateinamen angeben, importiert die API die Daten aus der Datei, deren Name in der Dataload-Regel angegeben ist. Die Datendatei muss vor der Ausführung der Datenregel bereits in der Inbox vorhanden sein. Ausführen als: Geben Sie diesen Parameter in der Registerkarte "Workflow" an. |
Pipeline ausführen | Führt eine Pipeline basierend auf ausgewählten Jobparametern und Variablen aus. |
Jobtyp: Pipeline Jobname: Für die Pipeline in der Komponente Datenintegration definierter Pipelinecode Startperiode: Die erste Periode, für die Daten geladen werden sollen. Dieser Periodenname muss in der Periodenzuordnung der Komponente Datenintegration definiert sein. Endperiode: Die letzte Periode, für die Daten geladen werden sollen. Dieser Periodenname muss in der Periodenzuordnung der Komponente Datenintegration definiert sein. Importmodus: Bestimmt, wie die Daten in die Komponente Datenintegration importiert werden Exportmodus: Bestimmt, wie die Daten in die Komponente Datenintegration exportiert werden Logs anhängen: Angabe, ob Logs als E-Mail-Anhang aufgenommen werden E-Mail senden: Bestimmt, wann beim Ausführen einer Pipeline eine E-Mail gesendet wird Senden an: Bestimmt die E-Mail-ID des Empfängers der E-Mail-Benachrichtigung Ausführliche Informationen zu diesen Parametern finden Sie unter Pipeline ausführen in der Dokumentation REST-API für Oracle Enterprise Performance Management Cloud. |
Automatisierungsintegrationen für Financial Consolidation and Close und Tax Reporting
Integrationsname | Beschreibung | Parameter/Beschreibung |
---|---|---|
Cube löschen
Hinweis: Diese Integration ist nur für Tax Reporting anwendbar. |
Löscht bestimmte Daten in Eingabe- und Reporting-Cubes. | Name: Name des Jobs zum Löschen des Cubes. |
Anteilsdaten in nächstes Jahr kopieren |
Automatisiert eine Aufgabe zum Kopieren der Anteilsdaten aus der letzten Periode eines Jahres in die erste Periode des nächsten Jahres. Informationen hierzu finden Sie unter copyOwnershipDataToNextYear in der Dokumentation Mit EPM Automate für Oracle Enterprise Performance Management Cloud arbeiten. |
Szenario: Name des Szenarios, z.B. Ist. Auswählbar. Jahre: Auswählbar |
Cube aktualisieren |
Aktualisiert den OLAP-Cube |
Name: Name des Jobs zum Aktualisieren des Cubes. |
Daten löschen |
Job "Daten löschen" anhand des Profilnamens ausführen. Weitere Informationen zur Verwendung von "Daten löschen" in Financial Consolidation and Close finden Sie unter Daten löschen. Weitere Informationen zur Verwendung von "Daten löschen" in Tax Reporting finden Sie unter Daten löschen. |
Profilname: Name des Profils zum Löschen von Daten. |
Daten kopieren |
Job "Daten kopieren" anhand des Profilnamens ausführen. |
Profilname: Name des Profils zum Kopieren von Daten. |
Daten exportieren |
Exportiert Anwendungsdaten in eine Datei unter Verwendung der Datenexporteinstellungen (einschließlich Dateiname), die in einem Job vom Typ "Daten exportieren" angegeben sind Die Datei mit den exportierten Daten wird im Repository gespeichert. |
Name: Name des Jobs zum Exportieren von Daten. Exportdateiname: Optional. Name der Datei, in die Daten exportiert werden sollen. |
Datenzuordnung exportieren |
Exportiert eine in der Komponente "Datenmanagement" definierte Datenzuordnung an einen angegebenen Speicherort. Hierbei handelt es sich um eine prozessautomatisierte Integration. Weitere Informationen finden Sie unter Vordefinierte Integrationen in EPM Cloud hinzufügen. Elementzuordnungen definieren Beziehungen zwischen Quellelementen und Zieldimensionselementen in einer einzelnen Dimension. |
Dimension: Der Name einer bestimmten zu importierenden Dimension, z.B. ACCOUNT, oder ALL für den Import aller Dimensionen. Dateiname: Datei und Pfad, aus denen Zuordnungen importiert werden sollen. Das Dateiformat kann CSV, TXT, XLS oder XLSX lauten. Nehmen Sie die Outbox in den Dateipfad auf, z.B. outbox/BESSAPPJan-06.csv. Speicherortname: Der Name des Speicherorts, in den exportiert werden soll. |
Anteilsdaten exportieren |
Automatisiert eine Aufgabe zum Exportieren von Anteilsdaten aus einer Entity in eine durch Komma getrennte CSV-Datei. Informationen hierzu finden Sie unter exportOwnershipData in der Dokumentation Mit EPM Automate für Oracle Enterprise Performance Management Cloud arbeiten. |
Entity: Name der Entity. Szenario: Name des Szenarios, z.B. Ist. Auswählbar. Jahre: Auswählbar Periode: Name der Periode, z.B. Januar. Auswählbar. Dateiname: Name der zu exportierenden Datei. |
Daten importieren |
Importiert Daten aus einer Datei im Repository in die Anwendung unter Verwendung der Datenimporteinstellungen, die in einem Job vom Typ "Daten importieren" angegeben sind |
Name: Name des Jobs zum Importieren von Daten. Importdateiname: Optional. Name der Datei, aus der Daten importiert werden sollen. |
Datenzuordnung importieren |
Importiert eine in der Komponente "Datenmanagement" definierte Datenzuordnung an einen angegebenen Speicherort. Hierbei handelt es sich um eine prozessautomatisierte Integration. Elementzuordnungen definieren Beziehungen zwischen Quellelementen und Zieldimensionselementen in einer einzelnen Dimension. Sie können Elementzuordnungen aus einer ausgewählten Excel-, CSV- oder TXT-Datei importieren. |
Jobtyp: Der Jobtyp, MAPPINGIMPORT. Jobname: Der Name einer bestimmten zu importierenden Dimension, z.B. ACCOUNT, oder ALL für den Import aller Dimensionen. Dateiname: Datei und Pfad, aus denen Zuordnungen importiert werden sollen. Das Dateiformat kann CSV, TXT, XLS oder XLSX lauten. Die Datei muss vor dem Import entweder in die Inbox oder in ein Unterverzeichnis der Inbox hochgeladen werden. Nehmen Sie die Inbox in den Dateipfad auf, z.B. inbox/BESSAPPJan-06.csv. Importmodus: MERGE zum Hinzufügen neuer Regeln oder zum Ersetzen vorhandener Regeln oder REPLACE zum Löschen vorheriger Zuordnungsregeln vor der Import. Validierungsmodus: Angabe, ob der Validierungsmodus verwendet werden soll oder nicht: true oder false. Bei "true" werden die Zielelemente anhand der Zielanwendung validiert. Bei "false" wird die Zuordnungsdatei ohne Validierungen geladen. Beachten Sie, dass der Validierungsprozess ressourcenintensiv ist und länger als der Validierungsmodus false dauert. Daher wählen die meisten Kunden die Option false aus. Speicherortname: Der Speicherort in der Komponente "Datenmanagement", an dem die Zuordnungsregeln geladen werden sollen. Zuordnungsregeln sind für einen Speicherort in der Komponente "Datenmanagement" spezifisch. |
Metadaten importieren |
Importiert Metadaten aus einer Datei im Repository in die Anwendung unter Verwendung der Metadatenimporteinstellungen, die in einem Job vom Typ "Metadaten importieren" angegeben sind, in die Anwendung. |
Name: Der Name eines Batchs, der im Job zum Importieren von Metadaten definiert ist. |
Anteilsdaten importieren |
Automatisiert eine Aufgabe zum Importieren von Anteilsdaten aus einer in der Umgebung verfügbaren CSV-Datei in eine Periode. Informationen hierzu finden Sie unter importOwnershipData in der Dokumentation Mit EPM Automate für Oracle Enterprise Performance Management Cloud arbeiten. |
Szenario: Name des Szenarios, z.B. Ist. Auswählbar. Jahre: Auswählbar Periode: Name der Periode, z.B. Januar. Auswählbar. Dateiname: Name der zu importierenden Datei. |
Journalperiode |
Öffnet oder schließt automatisch eine Journalperiode. Das System schließt die Periode nur, wenn keine genehmigten und deaktivierten Journale vorhanden sind. Wenn genehmigte und deaktivierte Journale vorhanden sind, wird die Periode nicht geschlossen und ein Fehler vom System ausgegeben. Wenn deaktivierte Journale mit dem Status "In Bearbeitung" und "Weitergeleitet" vorhanden sind, wird die Periode mit einer Warnung vom System geschlossen. |
Szenario: Name des Szenarios, z.B. Ist Jahr: Jahr, z.B. GJ20 Periode: Name der Periode, z.B. Januar Aktion: Öffnen oder Schließen |
Enterprise-Journale überwachen
Hinweis: Diese Integration ist nur für Financial Consolidation and Close anwendbar. |
Abschlussstatus von Journalen in einem Jahr/einer Period oder einer gefilterten Liste. |
Jahr: Optional. Das Jahr, z.B. 2022. Auswählbar. Periode: Optional. Der Name der Periode, z.B. Januar. Auswählbar. Filtername: Optional. Der Name des erstellten Filters zum Überwachen des Status der Enterprise-Journale. Hinweis: Obwohl alle Parameter optional sind, müssen Sie mindestens einen Filternamen oder ein Jahr und eine Periode angeben. |
Anteilsdaten neu berechnen |
Automatisiert eine Aufgabe zum Neuberechnen von Anteilsdaten. Informationen hierzu finden Sie unter recomputeOwnershipData in der Dokumentation Mit EPM Automate für Oracle Enterprise Performance Management Cloud arbeiten. |
Szenario: Name des Szenarios, z.B. Ist Jahre: Jahr, z.B. GJ20 Periode: Name der Periode, z.B. Januar |
Batchregel ausführen |
Führt einen Batch mit Jobs aus, die im Modul "Datenmanagement" definiert wurden. |
Name: Der Name des auszuführenden Berichts, z.B. der Pfad für den Bericht "Dimensionszuordnung für POV (Dimension, Cat, Per)" Berichtsformattyp: Das Dateiformat des Berichts (PDF, XLSX oder HTML) Parameter: Anzahl und Werte der Parameter können je nach Bericht variieren. Location: - Der Speicherort des Berichts, z.B. Comma_Vision Ausführen als: Sie müssen diesen Parameter in der Registerkarte "Workflow" angeben. |
Geschäftsregel ausführen |
Eine Geschäftsregel wird gestartet. |
Name: Der Name einer Geschäftsregel exakt gemäß Definition. Parameter: Runtime Prompts in JSON-Syntax. Der Parametername muss genau mit dem in der Regeldefinition definierten Namen übereinstimmen. Beispiel: { "MyScenario1":"Current", "MyVersion1":"BU Version_1", "ToEntity":"CA", "Rule_Level_Var":"AZ", "planType":"Plan1"} Das folgende Format wird ebenfalls unterstützt. Beispiel: "Scenario=Actual" "Entity=Total Geography" "Year=FY21" "Period=Apr" |
Geschäftsregelset ausführen |
Startet ein Geschäftsregelset. Regelsets ohne Runtime Prompts oder Runtime Prompts mit Standardwerten werden unterstützt. |
Name: Der Name eines Geschäftsregelsets exakt gemäß Definition. Parameter: Runtime Prompts in JSON-Syntax. Der Parametername muss genau mit dem in der Regeldefinition definierten Namen übereinstimmen. Beispiel: { "MyScenario1":"Current", "MyVersion1":"BU Version_1", "ToEntity":"CA", "Rule_Level_Var":"AZ", "planType":"Plan1"} Das folgende Format wird ebenfalls unterstützt. Beispiel: "Scenario=Actual" "Entity=Total Geography" "Year=FY21" "Period=Apr" |
Konsolidierung ausführen |
Diese Aufgabe ist eine Utility-Aufgabe zum Ausführen der Konsolidierung. Mit dieser Aufgabe wird der Benutzer aufgefordert, Parameter zum Ausführen der Aufgaben einzugeben, wie z.B. Scenario, Year, Period und Entity. |
Scenario Year Period Entity: Mehrere Entitys können durch Komma getrennt hinzugefügt werden. |
Datenregel ausführen |
Führt eine Dataload-Regel der Komponente "Datenmanagement" basierend auf der Start- und Endperiode aus, und importiert oder exportiert die von Ihnen angegebenen Optionen. |
Jobname: Der Name einer in der Komponente "Datenmanagement" definierten Dataload-Regel. Startperiode: Die erste Periode, für die Daten geladen werden sollen. Dieser Periodenname muss in der Periodenzuordnung der Komponente "Datenmanagement" definiert sein. Endperiode: Die letzte Periode, für die Daten geladen werden sollen. Dieser Periodenname muss in der Periodenzuordnung der Komponente "Datenmanagement" definiert sein. Importmodus: Bestimmt, wie die Daten in die Komponente "Datenmanagement" importiert werden. APPEND zum Hinzufügen zur vorhandenen Regel POV-Daten im Modul "Datenmanagement" hinzuzufügen. REPLACE, um die POV-Daten zu löschen und mit den Daten aus der Datei zu ersetzen. RECALCULATE, um den Datenimport zu überspringen, die Daten jedoch mit aktualisierten Zuordnungen und Logikkonten erneut zu verarbeiten. NONE, um den Datenimport in die Staging-Tabelle der Komponente "Datenmanagement" zu überspringen. Exportmodus: Bestimmt, wie die Daten in die Komponente "Datenmanagement" exportiert werden. STORE_DATA, um die Daten in der Staging-Tabelle der Komponente "Datenmanagement" mit den vorhandenen Financial Consolidation and Close- oder Tax Reporting-Daten zusammenzuführen ADD_DATA, um die Daten in der Staging-Tabelle der Komponente "Datenmanagement" zu Financial Consolidation and Close oder Tax Reporting hinzuzufügen SUBTRACT_DATA, um die Daten in der Staging-Tabelle der Komponente "Datenmanagement" von vorhandenen Financial Consolidation and Close- oder Tax Reporting-Daten zu subtrahieren REPLACE_DATA, um die POV-Daten zu löschen und mit den Daten in der Staging-Tabelle der Komponente "Datenmanagement" zu ersetzen. Die Daten werden für Szenario, Version, Jahr, Periode und Entity gelöscht. NONE, um den Datenexport aus der Komponente "Datenmanagement" in Financial Consolidation and Close oder Tax Reporting zu überspringen Dateiname: Optional. Wenn Sie keinen Dateinamen angeben, importiert diese API die Daten aus der Datei, deren Name in der Dataload-Regel angegeben ist. Die Datendatei muss vor der Ausführung der Datenregel bereits in der Inbox vorhanden sein. Ausführen als: Sie müssen diesen Parameter in der Registerkarte "Workflow" angeben. |
Ausführen der Konsolidierung erzwingen |
Diese Aufgabe ist eine Utility-Aufgabe, um die Ausführung der Konsolidierung zu erzwingen. Mit der Aufgabe wird der Benutzer aufgefordert, Parameter zum Ausführen der Aufgaben einzugeben, wie z.B. Scenario, Year, Period und Entity. |
Scenario Year Period Entity: Mehrere Entitys können durch Komma getrennt hinzugefügt werden. |
Ausführen der Umrechnung erzwingen |
Diese Aufgabe ist eine Utility-Aufgabe, um die Ausführung der Umrechnung zu erzwingen. Mit der Aufgabe wird der Benutzer aufgefordert, Parameter zum Ausführen der Aufgaben einzugeben, wie z.B. Scenario, Year, Period und Entity. |
Scenario Year Period Entity: Mehrere Entitys können durch Komma getrennt hinzugefügt werden. |
Umrechnung ausführen |
Diese Aufgabe ist eine Utility-Aufgabe zum Ausführen der Umrechnung. Mit der Aufgabe wird der Benutzer aufgefordert, Parameter zum Ausführen der Aufgaben einzugeben, wie z.B. Scenario, Year, Period und Entity. |
Scenario Year Period Entity: Mehrere Entitys können durch Komma getrennt hinzugefügt werden. |
Automatisierungsintegrationen für Planning und Planning Modules
Integrationsname | Beschreibung | Parameter/Beschreibung |
---|---|---|
Cube löschen |
Löscht bestimmte Daten in Eingabe- und Reporting-Cubes. |
Name: Name des Jobs zum Löschen des Cubes. |
Cube aktualisieren |
Aktualisiert den OLAP-Cube |
Name: Name des Jobs zum Aktualisieren des Cubes. |
Daten exportieren |
Exportiert Anwendungsdaten in eine Datei unter Verwendung der Datenexporteinstellungen (einschließlich Dateiname), die in einem Job vom Typ "Daten exportieren" angegeben sind Die Datei mit den exportierten Daten wird im Repository gespeichert. |
Name: Name des Jobs zum Exportieren von Daten. Exportdateiname: Optional. Name der Datei, in die Daten exportiert werden sollen. |
Daten importieren |
Importiert Daten aus einer Datei im Repository in die Anwendung unter Verwendung der Datenimporteinstellungen, die in einem Job vom Typ "Daten importieren" angegeben sind |
Name: Name des Jobs zum Importieren von Daten. Importdateiname: Optional. Name der Datei, aus der Daten importiert werden sollen. |
Metadaten importieren |
Importiert Metadaten aus einer Datei im Repository in die Anwendung unter Verwendung der Metadatenimporteinstellungen, die in einem Job vom Typ "Metadaten importieren" angegeben sind, in die Anwendung. |
Name: Der Name eines Batchs, der im Job zum Importieren von Metadaten definiert ist. |
Batch ausführen |
Führt einen Batch mit Jobs aus, die im Modul "Datenmanagement" definiert wurden. |
Name: Der Name des auszuführenden Berichts, z.B. der Pfad für den Bericht "Dimensionszuordnung für POV (Dimension, Cat, Per)" Berichtsformattyp: Das Dateiformat des Berichts (PDF, XLSX oder HTML). Parameter: Anzahl und Werte der Parameter können je nach Bericht variieren. Location: - Der Speicherort des Berichts, z.B. Comma_Vision |
Geschäftsregel ausführen |
Eine Geschäftsregel wird gestartet. |
Name: Der Name einer Geschäftsregel exakt gemäß Definition. Parameter: Runtime Prompts in JSON-Syntax. Der Parametername muss genau mit dem in der Regeldefinition definierten Namen übereinstimmen. Beispiel: { "MyScenario1":"Current", "MyVersion1":"BU Version_1", "ToEntity":"CA", "Rule_Level_Var":"AZ", "planType":"Plan1"} Das folgende Format wird ebenfalls unterstützt. Beispiel: "Scenario=Actual" "Entity=Total Geography" "Year=FY21" "Period=Apr" |
Geschäftsregelset ausführen |
Startet ein Geschäftsregelset. Regelsets ohne Runtime Prompts oder Runtime Prompts mit Standardwerten werden unterstützt. |
Name: Der Name einer Geschäftsregel exakt gemäß Definition. Parameter: Runtime Prompts in JSON-Syntax. Der Parametername muss genau mit dem in der Regeldefinition definierten Namen übereinstimmen. Beispiel: { "MyScenario1":"Current", "MyVersion1":"BU Version_1", "ToEntity":"CA", "Rule_Level_Var":"AZ", "planType":"Plan1"} Das folgende Format wird ebenfalls unterstützt. Beispiel: "Scenario=Actual" "Entity=Total Geography" "Year=FY21" "Period=Apr" |
Datenregel ausführen |
Führt eine Dataload-Regel der Komponente "Datenmanagement" basierend auf der Start- und Endperiode aus, und importiert oder exportiert die von Ihnen angegebenen Optionen. |
Jobname: Der Name einer in der Komponente "Datenmanagement" definierten Dataload-Regel. Startperiode: Die erste Periode, für die Daten geladen werden sollen. Dieser Periodenname muss in der Periodenzuordnung der Komponente "Datenmanagement" definiert sein. Endperiode: Die letzte Periode, für die Daten geladen werden sollen. Dieser Periodenname muss in der Periodenzuordnung der Komponente "Datenmanagement" definiert sein. Importmodus: Bestimmt, wie die Daten in die Komponente "Datenmanagement" importiert werden. APPEND zum Hinzufügen zur vorhandenen Regel POV-Daten im Modul "Datenmanagement" hinzuzufügen. REPLACE, um die POV-Daten zu löschen und mit den Daten aus der Datei zu ersetzen. RECALCULATE, um den Datenimport zu überspringen, die Daten jedoch mit aktualisierten Zuordnungen und Logikkonten erneut zu verarbeiten. NONE, um den Datenimport in die Staging-Tabelle der Komponente "Datenmanagement" zu überspringen. exportMode: - Bestimmt, wie die Daten in die Datenmanagement-Funktion exportiert werden. STORE_DATA, um die Daten in der Staging-Tabelle des Moduls "Datenmanagement" mit den vorhandenen Oracle Hyperion Planning-Daten zusammenzuführen. ADD_DATA, um die Daten in der Staging-Tabelle des Moduls "Datenmanagement" zu Planning hinzuzufügen. SUBTRACT_DATA, um die Daten in der Staging-Tabelle des Moduls "Datenmanagement" von den vorhandenen Planning-Daten zu subtrahieren. REPLACE_DATA, um die POV-Daten zu löschen und mit den Daten in der Staging-Tabelle der Komponente "Datenmanagement" zu ersetzen. Die Daten werden für Szenario, Version, Jahr, Periode und Entity gelöscht. NONE, um den Datenexport aus dem Modul "Datenmanagement" in Planning zu überspringen. Dateiname: Optional. Wenn Sie keinen Dateinamen angeben, importiert diese API die Daten aus der Datei, deren Name in der Dataload-Regel angegeben ist. Die Datendatei muss vor der Ausführung der Datenregel bereits in der Inbox vorhanden sein. |
Automatisierungsintegrationen für Profitability and Cost Management
Integrationsname | Beschreibung | Parameter/Beschreibung |
---|---|---|
Datenzugriffsberechtigungen anwenden |
Wendet Datenzugriffsberechtigungen für eine bestimmte Profitability and Cost Management-Anwendung an. Diese API leitet einen Job weiter, mit dem die Datenzugriffsberechtigungen in Essbase erstellt und angewendet werden. Diese API entfernt alle vorhandenen Datenzugriffsberechtigungen in Oracle Essbase und erstellt sie anhand der aktuellen Informationen aus der Anwendung neu. Mit der API können Datenzugriffsberechtigungen beim Auftreten von Fehlern auch repariert werden. | Keine |
ML-Cube bereitstellen |
Stellt den Berechnungs-Cube für eine ausgewählte Profitability and Cost Management-Anwendung bereit oder erneut bereit. |
isKeepData: - Angabe, ob vorhandene Daten beibehalten werden sollen isReplacecube: - Angabe, ob vorhandene Daten ersetzt werden sollen comment: - Alle Benutzerkommentare |
ML-Berechnung ausführen |
Führt Berechnungen für eine ausgewählte Anwendung aus oder löscht sie. Wird mit dem Managementhauptbuch verwendet. |
povGroupMember: Das POV-Gruppenelement, für das Berechnungen ausgeführt werden sollen, z.B. 2015_January_Actual isClearCalculated: - Angabe, ob die Berechnungsdaten gelöscht werden sollen (wahr oder falsch) subsetStart: - Startabfolgenummer des Regelsets subsetEnd: - Endabfolgenummer des Regelsets Rule: Regelname für SINGLE_RULE ruleSetName: - Regelsetname für eine SINGLE_RULE-Option exeType: - Der Ausführungstyp gibt an, welche Regel ausgeführt werden soll. Mögliche Werte sind ALL_RULES, RULESET_SUBSET, SINGLE_RULE. Je nach exeType-Wert sind andere Parameter erforderlich. exeType: ALL_RULES überschreibt alle anderen Optionen, z.B. subsetStart, subsetEnd, ruleSetName, ruleName usw. exeType: RULESET_SUBSET berücksichtigt nur subsetStart und subsetEnd. exeType: SINGLE_RULE berücksichtigt nur ruleSetName und ruleName. Comment: Kommentartext verwenden Delimiter: Trennzeichen für Zeichenfolgen für POV-Gruppenelemente, z.B. Unterstrich (_) |
ML-POV löschen |
Löscht Modellartefakte und -daten aus einer POV-Kombination für eine beliebige Anwendung. |
POV GroupMember: Das POV-Gruppenelement, für das Berechnungen ausgeführt werden sollen, z.B. "2015_January_Actual" isManageRule: Gibt an, ob die Programmregeldetails gelöscht werden sollen isInputData: Gibt an, ob Eingabedaten gelöscht werden sollen IsAllocatedValues: Gibt an, ob die umgelegten Werte gelöscht werden sollen stringDelimiter: - Trennzeichen für Zeichenfolgen für POV-Gruppenelemente |
ML-POV kopieren |
Kopiert Modellartefakte und -Daten aus einer Quell-POV-Kombination in eine Ziel-POV-Kombination für eine beliebige Anwendung. Wird mit Managementhauptbuch-Anwendungen verwendet. |
POVs: Im Pfad enthalten srcPOVMemberGroup: - Quell-POV-Elementgruppe, z.B. 2014_January_Actual destPOVMemberGroup: - Ziel-POV-Elementgruppe, z.B. 2014_March_Actual isManageRule: - Angabe, ob die Programmregeldetails kopiert werden sollen isInputData: - Angabe, ob Eingabedaten kopiert werden sollen modelViewName: - Angabe, ob ein Datensegment aus dem Quell-POV in den Ziel-POV kopiert werden soll Ziel-POV erstellen: Angabe, ob der Ziel-POV erstellt werden soll, falls er nicht bereits vorhanden ist Trennzeichen für Zeichenfolgen: Trennzeichen für Zeichenfolgen für POV-Gruppenelemente |
Datenregel ausführen |
Führt eine Dataload-Regel von Data Management basierend auf der Start- und Endperiode aus, und importiert oder exportiert die von Ihnen angegebenen Optionen. |
Jobname: Der Name einer in der Komponente "Datenmanagement" definierten Dataload-Regel. Startperiode: Die erste Periode, für die Daten geladen werden sollen. Dieser Periodenname muss in der Periodenzuordnung der Komponente "Datenmanagement" definiert sein. Endperiode: Die letzte Periode, für die Daten geladen werden sollen. Dieser Periodenname muss in der Periodenzuordnung der Komponente "Datenmanagement" definiert sein. Importmodus: Bestimmt, wie die Daten in die Komponente "Datenmanagement" importiert werden. APPEND zum Hinzufügen zur vorhandenen Regel POV-Daten im Modul "Datenmanagement" hinzuzufügen. REPLACE, um die POV-Daten zu löschen und mit den Daten aus der Datei zu ersetzen. RECALCULATE, um den Datenimport zu überspringen, die Daten jedoch mit aktualisierten Zuordnungen und Logikkonten erneut zu verarbeiten. NONE, um den Datenimport in die Staging-Tabelle der Komponente "Datenmanagement" zu überspringen. Exportmodus: Bestimmt, wie die Daten in die Komponente "Datenmanagement" exportiert werden. STORE_DATA, um die Daten in der Staging-Tabelle der Komponente "Datenmanagement" mit den vorhandenen Profitability and Cost Management-Daten zusammenzuführen ADD_DATA, um die Daten in der Staging-Tabelle der Komponente "Datenmanagement" zu Profitability and Cost Management hinzuzufügen SUBTRACT_DATA, um die Daten in der Staging-Tabelle der Komponente "Datenmanagement" von vorhandenen Profitability and Cost Management-Daten zu subtrahieren REPLACE_DATA, um die POV-Daten zu löschen und mit den Daten in der Staging-Tabelle der Komponente "Datenmanagement" zu ersetzen. Die Daten werden für Szenario, Version, Jahr, Periode und Entity gelöscht. NONE, um den Datenexport aus der Komponente "Datenmanagement" in Profitability and Cost Management zu überspringen Dateiname: Optional. Wenn Sie keinen Dateinamen angeben, importiert diese API die Daten aus der Datei, deren Name in der Dataload-Regel angegeben ist. Die Datendatei muss vor der Ausführung der Datenregel bereits in der Inbox vorhanden sein. |
Batchregel ausführen |
Führt einen Batch mit Jobs aus, die in der Komponente Datenmanagement definiert wurden. |
Jobname: Der Name eines in der Komponente "Datenmanagement" definierten Batches |
Dimension aktualisieren |
Lädt eine neue Dimensions-Flat File für eine Anwendung hoch, die mit einer Flat File erstellt wurde. Hierbei handelt es sich um eine prozessautomatisierte Integration. Weitere Informationen finden Sie unter Dimensionen als Job aktualisieren. |
Dateiname: Name der Datendatei
Trennzeichen: Optionaler Parameter |