Das Image zeigt einen Pipelineworkflow für Livebetrugsprognosen mit Oracle Compute Cloud@Customer, Kafka und einer Morpheus-Pipeline in einem Docker-Container in drei untereinander gestapelten Swinlanes.
Hostumgebung: Der Ablauf wird von Transaction data (validation.csv) nach unten zum Python-Producer in der Hostumgebung gestartet.
Kafka: Der Ablauf wird nach unten zum Thema Kafka fortgesetzt: INPUT (gnn_fraud_input) im Swimlane Kafka.
Morpheus-Pipeline (Docker-Container): Der Workflow wird von INPUT (gnn_fraud_input) zur Kafka-Quelle in der Morpheus-Pipeline-Swimlane fortgesetzt.
GNN interface (GraphSAGE) verbunden.
GNN interface (GraphSAGE)" (neural network icon) stellt eine Verbindung zu Classification (XGBoost) her.
Classification (XGBoost) zum Serialisieren.
Die Kafka-Senke verbindet Kafka topic: OUTPUT (gnn_fraud_output) in der Kafka-Swimlane zurück.
Kafka topic: OUTPUT (gnn_fraud_output) stellt eine Verbindung zum Python-Consumer in der Swimlane der Hostumgebung her.
Python-Verbraucher stellt eine Verbindung zur Live-Betrugsprognose in der Hostumgebung her.