インポートのファイル・サイズの制限を教えてください。
データ・ファイルごとに最大50,000レコードをインポートできます。 この制限は、ユーザー・インタフェースおよびRESTサービス(少量)を使用してインポートされたファイルに適用されます。 データ・ファイルのサイズは250 MBを超えることはできません。
複数のジョブを一度に送信できます。 アプリケーションは、同時にパラレルに実行されるジョブの数を動的に計算します。 他のすべてのジョブはキューに入れられ、以前のジョブが完了した時点で実行されます。
importActivities RESTサービスを使用してジョブ(インポート・アクティビティとも呼ばれる)を送信する場合、各ジョブはリクエスト・ペイロードに最大20個のCSVファイルを含めることができます。 つまり、10個のジョブ(それぞれ50,000個のレコードの20個のCSVファイル)が、1回に最大100万件のレコードを処理するようアプリケーションに指示できます。
大量のデータをインポートするには、外部データ・ローダー・クライアント(EDLC
)を使用する必要があります。 EDLC
は、50,000を超えるレコードを持つファイルを受け入れます。 これらの大きいファイルは、それぞれ50,000の小さい部分に分割され、インポートされます。 大容量モードのEDLCを使用すると、それぞれ500,000個のレコードに分割してインポートできます。
インポート管理のファイルおよびレコード制限は次のとおりです:
チャネルおよびモードのインポート |
ジョブ発行ごとの最大ファイル数 |
単一送信で処理される最大レコード数 |
---|---|---|
ユーザー・インタフェース(低ボリューム) |
1ファイル(50kレコード) |
5万レコード |
RESTサービス(低ボリューム) |
ファイル当たり50kレコード |
無制限(ユーザーが50kのレコード・ファイルに手動で分割する必要があります) |
EDLC (低ボリューム) |
ファイル当たり50kレコード |
無制限( |
ユーザー・インタフェース(大容量) |
1ファイル(50万レコード) |
無制限(ユーザーが500kレコード・ファイルに手動で分割する必要があります) |
RESTサービス(大容量) |
ファイル当たり50万レコード |
無制限(ユーザーが500kレコード・ファイルに手動で分割する必要があります) |
EDLC (大容量) |
ファイル当たり50万レコード |
無制限( |
Oracleでは、サポートされているオブジェクトに対してEDLC (大容量)インポートを使用し、ジョブごとに20ファイル(CSVファイルごとに約10万レコード)のジョブを200万レコードに制限することをお薦めします。 パラレル・インポート・バッチを実行する場合、Oracleでは、最大10個のパラレル・バッチを実行することをお薦めします。
ユーザーのパフォーマンスは、データと構成によって異なります。 100 Kのレコードの10のパラレル・バッチの推奨事項は、開始するためのヒントです。 組織の要件に最も適した構成を確認して特定する必要があります。
パージとインポートが同じオブジェクトに対して同時に並行して実行されていないことを確認してください。
多数のフィールドまたは50kのレコードを含むインポートが失敗した場合、データを複数のファイルに分割します。
パフォーマンスが向上するようにレコードを並べ替えます。 同じ親に属するすべての子レベルを同じファイルに保持します。 たとえば、同じ親「サブスクリプション製品」に属するすべてのサブスクリプション・カバー・レベルを同じファイルに保持します。