Das Image zeigt einen Pipelineworkflow für Livebetrugsprognosen mit Oracle Compute Cloud@Customer, Kafka und einer Morpheus-Pipeline in einem Docker-Container in drei untereinander gestapelten Swinlanes.
Hostumgebung: Der Ablauf wird von Transaction data (validation.csv)
nach unten zum Python-Producer in der Hostumgebung gestartet.
Kafka: Der Ablauf wird nach unten zum Thema Kafka fortgesetzt: INPUT (gnn_fraud_input)
im Swimlane Kafka.
Morpheus-Pipeline (Docker-Container): Der Workflow wird von INPUT (gnn_fraud_input)
zur Kafka-Quelle in der Morpheus-Pipeline-Swimlane fortgesetzt.
GNN interface (GraphSAGE)
verbunden.
GNN interface (GraphSAGE)" (neural network icon)
stellt eine Verbindung zu Classification (XGBoost)
her.
Classification (XGBoost)
zum Serialisieren.
Die Kafka-Senke verbindet Kafka topic: OUTPUT (gnn_fraud_output)
in der Kafka-Swimlane zurück.
Kafka topic: OUTPUT (gnn_fraud_output)
stellt eine Verbindung zum Python-Consumer in der Swimlane der Hostumgebung her.
Python-Verbraucher stellt eine Verbindung zur Live-Betrugsprognose in der Hostumgebung her.