Erfahren Sie, wie Sie ein KI-Betrugserkennungssystem mit mehreren Agents auf OCI bereitstellen
Finanzinstitute stehen vor ausgefeilten Betrugsversuchen, die eine intelligente, automatisierte Analyse erfordern.
Inspiriert von den Innovationen von The Guardian Life Insurance Company of America bei der Betrugsprävention schlagen wir ein Betrugserkennungssystem für mehrere Agenten vor, das ausschließlich auf Oracle Cloud Infrastructure-(OCI-)Services basiert. Das Design verwendet mehrere spezialisierte KI-Agents, wie Betrugsanalysator und Datenabrufagenten, die von einem zentralen Orchestrator oder Supervisor-Agent koordiniert werden. In Kombination ahmen sie ein Untersuchungsteam nach, das Erkenntnisse aufdeckt, Beweise sammelt, Entscheidungen empfiehlt und Erzählungen generiert.
Dieser Anwendungsfall zur Betrugserkennung mit mehreren Agents verwendet eine moderne KI-gesteuerte Architektur auf Oracle Cloud. Durch die Kombination von OCI-Datenbank und anderen Services mit einem orchestrierten Agent-Framework erstellen wir ein System, das Betrug proaktiv identifizieren und Ermittler mit KI-generierten Erkenntnissen unterstützen kann.
Das Design ist skalierbar, flexibel und ermöglicht es Ihnen, neue Agents oder Tools hinzuzufügen, indem Sie Konfigurationen aktualisieren oder zusätzliche OCI-Funktionen bereitstellen, wenn sich Betrugsschemas weiterentwickeln. Außerdem werden hochmoderne KI-Features, wie große Sprachmodelle (LLMs) und Anomalieerkennung, auf sichere Weise mit Unternehmensdatensystemen wie Oracle Autonomous Database verbunden. Der Serverorchestrator stellt sicher, dass jeder KI-Agent zusammenarbeitet und mit Oracle-Systemen in der erforderlichen Sprache (SQL, API-Aufrufe) kommuniziert, sodass die Absichten der KI durch die Verwendung echter Daten zu echten Aktionen werden.
Sie können dieses Design anpassen, um eine Demonstrationsplattform zu erstellen, die Szenarien durchläuft, wie die Erkennung von Versicherungsbetrug. Es kann zeigen, wie der Orchestrator Agents Aufgaben zuweist und das Endergebnis mit einem Dashboard oder einer Chatbot-Antwort darstellt, in der die Ergebnisse des Betrugsanalyseagenten erläutert werden. Stakeholder sehen die modulare Architektur und verstehen die Rollen von OCI-Services klar: Autonomous Database verwaltet Daten in großem Maßstab, OCI Functions führt Microservices aus und OCI Generative AI fügt Intelligenz hinzu.
Dieses Design zeigt, wie Oracle Cloud einen agenten KI-Workflow zur Betrugserkennung in Echtzeit bereitstellen kann, um Betrug mit aufschlussreichem Kontext schneller zu erkennen und letztendlich das Unternehmen und seine Kunden zu schützen. Die Architektur wird in zwei Phasen dargestellt:
- Phase 1: Implementiert die Orchestrierungsebene, indem die Open-Source-Konzepte der Gen AI Toolbox von Google angepasst werden, um ein skalierbares Agent-Framework zu erstellen.
- Phase 2: Integriert tiefere OCI Large Language Model-(LLM-)Grundlagen für verbesserte Intelligenz.
Über Produkte und Dienstleistungen
Diese Lösung hebt die folgenden Produkte und Dienstleistungen hervor:
Phase 1:
- Google Gen AI Toolbox läuft auf
- Oracle Cloud Infrastructure Compute
- Oracle Cloud Infrastructure Kubernetes Engine
- Oracle Autonomous Transaction Processing
- Oracle Cloud Infrastructure Functions (serverlos)
- Oracle Cloud Infrastructure-Anomalieerkennung
Phase 2:
- Oracle Cloud Infrastructure Generative AI oder vortrainierte Oracle-Modelle
- Oracle Cloud Infrastructure Data Science
- Oracle Machine Learning
- Oracle Cloud Infrastructure Language
- Oracle Cloud Infrastructure Streaming
- Oracle Cloud Infrastructure GoldenGate
Informationen zu Ihren Anforderungen finden Sie unter Produkte, Lösungen und Services von Oracle.
Architektur
Diese Architektur zeigt ein KI-Betrugserkennungssystem mit mehreren Agents auf Oracle Cloud Infrastructure (OCI).
Dieses Design verwendet mehrere KI-Agenten, um wichtige Erkenntnisse bereitzustellen, Beweise zu sammeln und eine umfassende Betrugsanalyse zu erstellen.
Im Kern ist ein Modellkontextprotokoll-(MCP-)Server, der Agent-Interaktionen orchestriert. Spezialisierte Agents erledigen verschiedene Aufgaben. Beispiel: Ein Datenabruf-Agent fragt Unternehmensdatenquellen ab, und ein Betrugsanalyse-Agent wertet Anomalien aus und erklärt sie. Der Ablauf beginnt, wenn ein Ereignis, wie ein verdächtiger Transaktionsalert oder eine Abfrage eines Prüfers, den Orchestrator auslöst. Der Orchestrator delegiert dann Unteraufgaben an die Agents und konsolidiert ihre Ergebnisse mit einem Fan-in- und Fan-out-Designmuster. Jeder Agent verwendet OCI-native Services, um Aufgaben auszuführen (Datenbankabfragen, LLM-Inferenz usw.), und der Orchestrator übersetzt zwischen Agent- und Oracle-Systemkontexten, um sicherzustellen, dass jeder Agent die erforderlichen Informationen in dem von ihm erwarteten Format erhält.
Das folgende Diagramm zeigt einen Überblick über den Prozessablauf:
KI-Betrugserkennung-Flow-oracle.zip
- MCP-Orchestrierungsserver
Der MCP-(Model Context Protocol-)Server ist der koordinierende Hub, der Agent-Aktionen orchestriert und den Gesamtkontext oder -status einer Untersuchung verwaltet. Es verwendet MCP, um zu standardisieren, wie Agents Tools aufrufen und Daten austauschen. Als "zentrales Gehirn" fungiert, erhält es die erste Anfrage (Betrugswarnung oder Analyseabfrage) und ruft die entsprechenden Agenten in der Reihenfolge. Außerdem werden High-Level-Agent-Intents in Low-Level-Vorgänge auf Oracle-Systemen übersetzt, z. B. die Anforderung eines Agent nach Kundeninformationen in eine SQL-Abfrage konvertieren und SQL-Ergebnisse in eine Antwort in natürlicher Sprache konvertieren. Dieser Ansatz entkoppelt Agents von direkten Systemaufrufen, indem er den Orchestrator als Brücke zwischen der Agent-Logik und Unternehmensdaten verwendet und flexible Updates und zentralisierte Kontrolle ermöglicht. In der ersten Phase dieser Architektur ist der Server ein Lightweight-Server, der von der Gen AI Toolbox von Google abgeleitet wird und auf Oracle Cloud Infrastructure Compute oder OCI Kubernetes Engine ausgeführt wird.
- Datenabruf-Agent
Der Data Retrieval Agent ist ein spezialisierter Agent, der für das Abrufen relevanter Daten aus Unternehmensquellen verantwortlich ist. Beispiel: Wenn Sie eine Kunden-ID oder Transaktions-ID vom Orchestrator erhalten, fragt er die Oracle Autonomous Database oder andere OCI-Datenspeicher ab, um Informationen wie aktuelle Transaktionen, Kontenprofile, Anspruchshistorie usw. zu erhalten. Sie können diesen Agent mit OCI Functions (serverlos) implementieren, um Tools aufzurufen, die auf einem MCP-Server für Autonomous Database gehostet werden. Der Agent enthält die gesamte Logik für den Datenzugriff. Der Orchestratorserver kann ein vordefiniertes Tool für diesen Agent verwenden, wie z.B. ein YAML-konfiguriertes Tool
LookupTransaction
oderGetCustomerProfile
, das weiß, wie die richtige SQL in Autonomous Database ausgeführt wird. Ähnlich wie Google Gen AI Toolbox YAML-definierte Tools verwendet, mit denen Agents Datenbankvorgänge ausführen können, definiert dieses Design Datenbankabfragen als konfigurationsgesteuerte Tools. In der ersten Phase führt der Data Agent diese Abfragen einfach ohne Beteiligung der KI-Entscheidungsfindung aus und gibt die Ergebnisse an den Orchestrator zurück. - Betrugsanalyse-Agent
Der Betrugsanalyse-Agent ist der Eckpfeiler, der die Daten auf Anzeichen von Betrug bewertet und Erkenntnisse generiert. Dieser Agent nimmt den Kontext auf, wie die Transaktionsdetails, Kundeninformationen oder historischen Muster, die vom Orchestrator bereitgestellt werden, und wendet KI/ML-Logik an, um zu bestimmen, ob das Szenario wahrscheinlich betrügerisch ist. In Phase 1 könnte dies eine regelbasierte Engine oder ein OCI-Anomalieerkennungsmodell sein, um eine schnelle, deterministische Antwort zu liefern. Beispielsweise könnte es Anomalien wie eine Transaktion, die weit außerhalb des normalen Bereichs liegt, oder mehrere Claims in kurzer Zeit kennzeichnen. Der Agent erstellt dann eine Betrugsbewertung oder Klassifizierung und möglicherweise eine Erklärung.
In Phase 2 wird der Betrugsanalysator-Agent mit LLM-Funktionen ergänzt, indem er OCI Generative AI oder vortrainierte Oracle-Modelle verwendet, um menschenlesbare Ermittlungserzählungen zu generieren. Auf diese Weise erstellt generative KI automatisch einen prägnanten Bericht der Ergebnisse, der zusammenfasst, warum eine Transaktion markiert wurde, und die Daten direkt referenziert, z. B. wie die jüngsten Transaktionen eines Kunden ungewöhnliche hochwertige Käufe im Ausland zeigen, die von ihrem normalen Muster um 5σ (5 Sigma) abweichen, was auf eine hohe Betrugswahrscheinlichkeit hinweist. Der eigene Finanzdienstleistungsbereich von Oracle hat den Wert solcher generativer Erzählungen bei der Beschleunigung von Untersuchungen hervorgehoben. In Phase 2 kann der Betrugsanalyseagent ein OCI-LLM verwenden, um die Daten zu analysieren und die Ergebnisse zu erläutern. Beispielsweise könnte es einen Prompt verwenden, der die Daten enthält und das Modell auffordert, das Betrugsrisiko zu analysieren, oder es könnte eine werkzeugunterstützte Argumentation durchführen, indem es zuerst ein Berechnungstool aufruft und dann das LLM die Ergebnisse ausarbeitet.
- Zusätzliche Agenten (nach Bedarf)
Die Architektur unterstützt die Möglichkeit, andere Agents anzuschließen, um die Analyse anzureichern. Zum Beispiel könnte ein externer Check-Agent Dienste von Drittanbietern wie Sanktionslisten oder Kreditauskunfteien anrufen, um mehr Beweise für das betroffene Unternehmen zu sammeln. Ein weiterer könnte ein Benachrichtigungs- und Fallmanagement-Agent sein, der den Fall nach der Bestätigung eines Betrugs in einem System protokolliert oder einen Alert an einen menschlichen Ermittler auslöst. Durch die Fähigkeit des Orchestrators, mehrere Agents zu verwalten und komplexe Workflows zu koordinieren, können neue Agents hinzugefügt werden, ohne vorhandene zu stören. Diese Modularität macht das System für Demo-Showcases erweiterbar, die mit zwei Agents beginnen und später weitere für andere Demoszenarios wie Complianceprüfungen, Kundennachrichten usw. anhängen können.