Daten von Kafka-Plattformen erfassen
Überblick
Mit OCI GoldenGate können Sie Nachrichten von den folgenden Streamingquellen erfassen:
- Apache Kafka
- OCI Streaming
- Confluent Kafka, mit oder ohne Schema-Registry
- Azure Event Hubs
- Amazon MSK
OCI GoldenGate liest Nachrichten aus einem oder mehreren Kafka-Themen und konvertiert die Daten dann in logische Änderungsdatensätze, die in GoldenGate-Traildateien geschrieben werden. GoldenGate Replicat-Prozesse können dann mit den generierten Traildateien Daten zur Unterstützung von RDBMS-Implementierungen bereitstellen.
Aufgabe 1: Consumer-Eigenschaften konfigurieren
- Erstellen Sie eine Kafka Consumer-Eigenschaftendatei mit einem der folgenden Deserialisierer oder Konverter. Wenn es sich bei der Quelle um ein Thema in Confluent Kafka mit Schema Registry handelt, können Sie den Avro-Konverter verwenden. Verwenden Sie für andere Quellen den JSON-Konverter oder Deserializer nach Bedarf:
- Kafka-Consumer-Eigenschaften für JSON-Deserializer:
key.deserializer=org.apache.kafka.common.serialization.ByteArrayDeserializer value.deserializer=org.apache.kafka.common.serialization.ByteArrayDeserializer
- Kafka Consumer-Eigenschaften für JSON-Konverter:
key.converter=org.apache.kafka.connect.json.JsonConverter value.converter=org.apache.kafka.connect.json.JsonConverter
- Kafka Consumer-Eigenschaften für Avro-Konverter:
key.converter=io.confluent.connect.avro.AvroConverter value.converter=io.confluent.connect.avro.AvroConverter
- Kafka-Consumer-Eigenschaften für JSON-Deserializer:
- Speichern Sie die Eigenschaftendatei, und notieren Sie sich ihren Speicherort.
Aufgabe 2: OCI GoldenGate-Ressourcen erstellen
In dieser Aufgabe wird beschrieben, wie Sie neue Ressourcen erstellen, wenn sie noch nicht vorhanden sind. Stellen Sie sicher, dass das verwendete Big Data-Deployment auf die neueste verfügbare Version upgegradet wird.
Aufgabe 3: Zugangsdaten erstellen
Bevor Sie die Extract erstellen können, müssen Sie zuerst Zugangsdaten erstellen.
So erstellen Sie Zugangsdaten:
- Wählen Sie auf der Seite "Deployments" das Big Data Deployment aus.
- Klicken Sie auf der Seite "Deployment" auf Konsole starten.
- Melden Sie sich beim Big Data Deployment mit dem Benutzernamen und Kennwort an, die Sie bei der Erstellung des Deployments in Aufgabe 2, Schritt 1 angegeben haben.
- Wählen Sie im Navigationsmenü die Option DB-Verbindungen aus.
- Klicken Sie auf der Seite "Konfiguration" auf der Registerkarte "Datenbank" auf DB-Verbindung hinzufügen (Plussymbol), und füllen Sie das Formular folgendermaßen aus:
- Geben Sie unter Zugangsdatendomain
OracleGoldenGate
ein. - Geben Sie unter Zugangsdatenalias
kafka
ein. - Geben Sie unter Benutzer-ID
kafka://
ein. - Geben Sie unter Kennwort und Kennwort bestätigen ein Kennwort ein.
- Klicken Sie auf Weiterleiten.
- Geben Sie unter Zugangsdatendomain
Aufgabe 4: Extract erstellen
- Klicken Sie auf der Seite "Überblick" des Administration Service auf Extract hinzufügen (Pluszeichen).
- Fügen Sie einen Extract hinzu mit den folgenden Werten:
Sie kehren zur Administration Service-Überblickseite zurück, auf der Sie den Start des Extract-Prozesses beobachten und die Ereignisnachrichten prüfen können.