根据起始期间和结束期间执行 Oracle Hyperion Financial Data Quality Management, Enterprise Edition 数据加载规则,然后导入或导出您指定的选项。
先决条件
数据规则:数据加载规则定义集成如何从文件中加载数据。您必须具有预定义的数据加载规则,才能加载数据。
您必须拥有执行特定数据规则所需的权限。
REST 资源
POST /aif/rest/{api_version}/jobs
请求
支持的介质类型:application/json
参数
下表对客户端请求进行了总结。
表 A-1 参数
| 名称 | 说明 | 类型 | 必需 | 默认 |
|---|---|---|---|---|
api_version |
您使用的 API 版本,例如 V1 | 路径 | 是 | 无 |
jobType |
应设置为 "DATARULE" | 是 | 无 | |
jobName |
在 FDMEE 中定义的数据加载规则名称。如果规则名称中包含空格,则应该使用引号将其括起来。 | 是 | 无 | |
startPeriod |
要加载数据的第一个期间。此期间名称必须在 FDMEE 期间映射中进行定义。 | 是 | 无 | |
endPeriod |
要加载数据的最后一个期间。此期间名称必须在 FDMEE 期间映射中进行定义。 | 是 | 无 | |
importMode |
确定如何将数据导入 FDMEE。
可接受的值包括:
|
是 | 无 | |
exportMode |
确定如何将数据导出到 FDMEE。
对于 Oracle Hyperion Planning 应用程序,可接受的值包括:
对于 Financial Consolidation and Close 和 Tax Reporting 应用程序,可接受的值包括:
|
是 | 无 | |
fileName |
可选的文件名。如果未指定文件名,则此 API 会导入加载数据规则指定的文件名中包含的数据。在执行数据规则之前,数据文件必须已在收件箱中。 | 是 | 无 |
URL 示例
https://<SERVICE_NAME>-<TENANT_NAME>.<dcX>.oraclecloud.com/aif/rest/V1/jobs
请求主体示例
{"jobType":"DATARULE",
"jobName":"aso to bso dr",
"startPeriod":"Dec-18",
"endPeriod":"Dec-18",
"importMode":"REPLACE",
"exportMode":"NONE",
"fileName":""
}
响应
支持的介质类型:application/json
表 A-2 参数
| 名称 | 说明 |
|---|---|
|
|
作业状态:-1 = 正在进行;0 = 成功;1 = 错误;2 = 取消待定;3 = 已取消;4 = 无效参数 |
|
jobStatus |
作业状态的文本表示,采用以下其中一个值:"RUNNING"、"SUCCESS"、"FAILED" |
|
jobId |
在 FDMEE 中为作业生成的进程 ID |
|
logFileName |
包含此执行条目的日志文件。 |
|
outputFileName |
已生成输出文件(若有)的名称。 |
|
processType |
已执行进程的类型。将包含所有数据规则执行的 "COMM_LOAD_BALANCES" |
|
executedBy |
用于执行规则的用户的登录名。 |
|
details |
发生应用程序错误时,将返回异常堆积踪迹 |
响应实体示例
下面显示了 JSON 格式的响应主体的示例。
{
"jobStatus": "RUNNING"
"jobId": 2019
"logFileName": "\outbox\logs\Account Reconciliation Manager_2019.log"
"outputFileName": null
"processType": "COMM_LOAD_BALANCES"
"executedBy": "admin"
"status": -1
"links": [1]
0: {
"rel": "self"
"href": "https://<SERVICE_NAME>-<TENANT_NAME>.<dcX>.oraclecloud.com/aif/rest/V1/jobs/2019"
"action": "GET"
}
"details": null
}