機械翻訳について

Apache KafkaからAmazon S3へのメッセージのエクスポート

このレシピを使用して、Apache KafkaメッセージをAmazon Simple Storage Service (Amazon S3)バケットにエクスポートします。

ノート:

このレシピは、統合ストアでApache Kafka - Amazon S3 | メッセージのエクスポートとして使用できます。 Oracleには、サンプルとしてのみこのレシピが用意されています。 レシピはガイダンスのみを目的としており、エラーがないことは保証されていません。 このレシピはサポートされていません。

概要

このレシピは、Apache KafkaトピックからAmazon S3バケットにメッセージをJSONファイルとしてエクスポートします。 各Apache Kafkaメッセージは、メッセージの内容を含むJSONファイルとしてエクスポートされます。 レシピでは、標準の「Apache Kafkaアダプタ」と標準の「RESTアダプタ」が使用されます。

レシピを使用するには、レシピ・パッケージをインストールし、レシピ・パッケージ内の接続および他のリソースを構成する必要があります。 その後、統合フローを手動でアクティブ化して実行することも、その実行スケジュールを指定することもできます。 トリガーされると、統合フローは、指定されたApache Kafkaトピック内のメッセージを問い合せ、事前定義された数のメッセージをロードします。 その後、統合によって各メッセージが反復され、指定されたAmazon S3バケットにJSONファイルとしてエクスポートされます。

システムおよびアクセスの要件

  • Oracle Integration、バージョン21.2.1以上
  • Amazon Web Services (AWS)とAmazon S3
  • Apache Kafka
  • Confluent
  • 管理者ロールを持つAWSのアカウント
  • 管理者ロールに影響を与える取引先

レシピ・スキーマ

このセクションでは、レシピのアーキテクチャの概要について説明します。

apachekafka-amazons3.pngの説明は以下のとおりです
「図apachekafka-amazons3.pngの説明」

レシピの統合フローが実行スケジュールまたは手動送信によってトリガーされると、Apache Kafkaインスタンス・トピックにメッセージを問い合せます。 指定したトピックにメッセージが存在する場合、統合によって事前定義された数のメッセージがフェッチされます。 反復してメッセージをAmazon S3にエクスポートします。 エクスポートされたメッセージごとに、メッセージのコンテンツを含む対応するJSONファイルが、指定されたAmazon S3バケットに作成されます。