Saiba mais sobre o Streaming de Detecção de Fraudes

O Oracle Compute Cloud@Customer, um componente-chave do portfólio da Oracle Roving Edge Infrastructure, fornece às organizações uma solução escalável para processar dados confidenciais com segurança, com baixa latência, perto de sua origem.

Neste manual de soluções, você aprende a usar a estrutura de segurança cibernética da NVIDIA Morpheus para implementar detecção de fraude orientada por IA em tempo real usando um pipeline Morpheus acelerado por GPU e publicar os resultados usando o Compute Cloud@Customer. A solução permite a detecção instantânea de fraudes sem esperar por tarefas em lote e mantém seus dados seguros, processando-os localmente na borda.

Antes de Começar

Certifique-se de executar a implantação em uma máquina host com as seguintes definições de ambiente:
  • Sistema Operacional: Ubuntu 24.04 LTS
  • Plataforma: NVIDIA AI Enterprise em uma instância do Oracle Compute Cloud@Customer de nó único equipada com uma GPU L40S da NVIDIA.

Antes de começar, verifique se as seguintes ferramentas estão instaladas na máquina host:

  • Docker e Docker Compose (docker compose V2)
  • Git e Git LFS (git-lfs)
  • Python 3 e Pip

Fluxo de Trabalho

O fluxo de trabalho aproveita a estrutura de segurança cibernética da NVIDIA Morpheus para realizar inferência acelerada por GPU em um fluxo de dados de transações financeiras.

O diagrama a seguir mostra um workflow por meio de três raias; ambiente Host, Apache Kafka e o pipeline Morpheus:



O pipeline ingere dados de transações ao vivo por meio do Apache Kafka, executa análise contextual baseada em gráfico usando um modelo pré-treinado de Amostra e Agregação de Gráficos (GraphSAGE) e executa a classificação final de fraude usando XGBoost. Todos os estágios são acelerados usando bibliotecas RAPIDS NVIDIA (cuDF, cuML), tornando todo o fluxo de trabalho otimizado para GPU para alto throughput. Veja a seguir como o processo flui:

  • Transaction data (.csv) é produzido por um produtor de Python.
  • Os dados vão para o stream do tópico INPUT do Kafka.
  • Os dados são processados por meio do pipeline Morpheus em etapas: leitura da origem do Kafka, desserialização, construção de um gráfico, interface com a interface Graph Neural Network (GNN) (GraphSAGE), classificação com XGBoost, serialização de resultados e gravação no dissipador do Kafka.
  • Os resultados são enviados para o stream do tópico OUTPUT do Kafka.
  • Um consumidor do Python recebe saída e fornece previsão de fraude ao vivo.

Proveniência de Modelo

O pipeline de inferência no núcleo dessa arquitetura usa dois modelos de machine learning pré-treinados: uma GNN GraphSAGE e um classificador XGBoost. Esses modelos foram gerados usando um pipeline de treinamento separado, que é incluído no repositório Morpheus para referência.

  • Local do Script de Treinamento: examples/gnn_fraud_detection_pipeline/training.py.
  • Processo: O script processa um conjunto de dados históricos rotulados para treinar a GNN em recursos baseados em gráfico e o modelo XGBoost nas incorporações resultantes.

Nesta solução, você não precisa executar o script de treinamento porque os modelos pré-treinados já foram fornecidos. Concentre-se na implantação e na execução do pipeline de inferência em tempo real.

Essa arquitetura suporta os seguintes componentes:

  • Oracle Compute Cloud@Customer

    O Oracle Compute Cloud@Customer é uma infraestrutura totalmente gerenciada em escala de rack que permite usar o OCI Compute em qualquer lugar. Obtenha os benefícios da automação e da economia da nuvem em seu data center executando formas OCI Compute e GPU com serviços de armazenamento e rede no Compute Cloud@Customer. Você pode executar aplicativos e aproveitar o poder do GenAI na infraestrutura de nuvem em seu data center, ajudando a tratar a residência, a segurança e as conexões de baixa latência de dados com recursos locais e operações em tempo real.

  • RAPIDS cuDF/cuML

    O RAPIDS cuDF/cuML é um conjunto de bibliotecas aceleradas por GPU para manipulação de dados de alto desempenho e utilitários de machine learning dentro do pipeline Morpheus.

  • Docker + Conda

    Docker + Conda fornecem uma abordagem em camadas para gerenciamento de dependência, usando o Docker para isolamento no nível do sistema operacional e o Conda para gerenciar o ambiente Python complexo dentro do contêiner.

Considerações para Produção

Ao implementar essa solução em um ambiente de produção, considere a escalabilidade e a resiliência que o Kubernetes pode fornecer. Você pode migrar esta solução para o OCI Kubernetes Engine (OKE) por meio de:

  • Contêinerização dos scripts auxiliares do produtor e do consumidor.
  • Implantação do Kafka usando um operador do Kubernetes de nível de produção.
  • Implantando o pipeline Morpheus como um job ou implantação do Kubernetes.

Sobre Serviços e Atribuições Obrigatórios

Esta solução requer os seguintes serviços e funções:

  • Oracle Compute Cloud@Customer
  • NVIDIA AI Enterprise 6.0
  • Ubuntu Linux (ou uma distribuição Linux compatível)

  • Docker
  • NVIDIA Morpheus 25.02

Essas são as funções necessárias para cada serviço.

Nome do Serviço: Função Obrigatório para...
Oracle Compute Cloud@Customer: administrator Configure e implante a instância de máquina virtual do NVIDIA AI Enterprise, gerencie recursos de rede e garanta o acesso à GPU L40S do NVIDIA.
Ubuntu Linux: root ou usuário com privilégios sudo Instale software de pré-requisito (Docker, Git), gerencie serviços do sistema e execute comandos do Docker.
NVIDIA AI Enterprise: Usuário da Conta Obtenha a imagem de contêiner necessária da NVIDIA Morpheus no catálogo da NVIDIA GPU Cloud (NGC).

Consulte Produtos, Soluções e Serviços Oracle para obter o que você precisa.