Oracle Cloud Infrastructure - Dokumentation


Zum Hauptinhalt wechseln

Apache Flink verwenden

Apache Flink ist eine Verarbeitungs-Engine für Berechnungen über ungebundene und gebundene Datenstreams.

Hinweis

Zookeeper HA ist standardmäßig aktiviert, wenn Flink-Jobs in einem Big Data Service-Cluster ausgeführt werden. Um ACLs auf dem erstellten znode zu erzwingen, aktualisieren Sie den Parameter HA Zookeeper Client ACL auf Creator (Standardwert ist auf Öffnen gesetzt). Weitere Informationen zu den ACLs finden Sie in der öffentlichen Flink-Dokumentation unter ZooKeeper HA-Services.
  • Alle Apache Flink-Komponenten, einschließlich Job Manager und Task Manager, werden im YARN-Container ausgeführt.
  • ODH unterstützt die Ausführung der Apache Flink-Anwendung als YARN-Anwendung (Anwendungsmodus) oder als Anhang zu einer vorhandenen Apache Flink YARN-Session (Sessionmodus).
  • In einem sicheren High Availability-(HA-)Cluster ist Apache Flink vorkonfiguriert, um Job Manager HA während der Installation aufzunehmen, und es verwendet den Zookeeper, der mit ODH geliefert wird, um HA zu unterstützen.
Wichtig

Der Flink-Historienserver unterstützt Kerberos/AuthN nicht. Die Backend-Kommunikation vom Historienserver kann Kerberos verwenden, das über die Eigenschaften security.kerberos.login.keytab und security.kerberos.login.principal von flink-conf gesteuert wird.

Flink-Konfigurationseigenschaften

Flink-Konfigurationseigenschaften in Big Data Service 3.1.1 oder höher.

Konfiguration Eigenschaft Beschreibung
flink-env flink_hadoop_classpath Hadoop-Classpath flinken

Benutzerdefinierte JAR in Apache Flink-Classpath verwenden

Bei der Installation von Apache Flink werden Bibliotheken während der Installation vorkonfiguriert.

  1. Der Standardspeicherort für die Apache Flink-Librarys ist /user/flink/libs/flink-libs von Hadoop Distributed File System (HDFS).
  2. Wenn Sie den Historienserver in der Apache Ambari-UI starten, werden diese Bibliotheken von lokal in HDFS geladen.
  3. ODH-bereitgestellte Connector-Bibliotheken befinden sich in /user/flink/lib/connector-libs von HDFS. Von diesem Speicherort aus können Sie erforderliche Connector-Librarys zum Apache Flink-Klassenpfad hinzufügen. Aktualisieren Sie die Eigenschaft yarn.provided.lib.dirs in flink-conf im Apache Ambari-Dashboard, um den spezifischen Library-Speicherort einzuschließen.
  4. Wenn eine benutzerdefinierte JAR-Datei vorhanden ist, laden Sie sie in /user/flink/lib/user-libs von HDFS hoch, und aktualisieren Sie dann die Eigenschaft yarn.provided.lib.dirs in flink-conf aus dem Apache Ambari-Dashboard, um einen benutzerdefinierten JAR-Speicherort einzuschließen.
  5. Wenn Sie mehrere Werte für yarn.provided.lib.dirs angeben, müssen die Werte durch ein Semikolon getrennt werden.

Apache Flink-Jobs anzeigen

ODH enthält zwei UIs zum Anzeigen von Apache Flink-Jobs.

Jobmanager/Apache Flink-UI

  1. Um ausgeführte Jobs zu verfolgen, gehen Sie zur YARN Resource Manager-UI, und wählen Sie die ausgeführte Apache Flink-Anwendung aus.
  2. Um auf die Flink-Jobmanager-UI zuzugreifen und den Fortschritt der ausgeführten Jobs zu verfolgen, wählen Sie Anwendungsmaster aus.

Apache Flink History Server-UI

  1. Um abgeschlossene Apache Flink-Jobs anzuzeigen, zugriff auf Apache Ambari.
  2. Wählen Sie in der seitlichen Symbolleiste unter Services die Option HDFS aus.
  3. Wählen Sie unter Quicklinks die Option Flink History Server-UI aus.
  • Apache Flink verwenden
  • Flink-Konfigurationseigenschaften
  • Benutzerdefinierte JAR in Apache Flink-Classpath verwenden
  • Apache Flink-Jobs anzeigen
  • Copyright © 2026, Oracle and/or its affiliates.
  • Oracle
  • Kontakt
  • Rechtliche Hinweise
  • Nutzungsbedingungen und Datenschutzrichtlinie
  • Dokumentkonventionen