KI mit Retrieval Augmented Generation (RAG) auswählen

Wählen Sie AI mit RAG erweitert Ihre Eingabeaufforderung in natürlicher Sprache, indem Sie Inhalte aus Ihrem angegebenen Vektorspeicher mithilfe der semantischen Ähnlichkeitssuche abrufen. Dies reduziert Halluzinationen durch die Verwendung Ihrer spezifischen und aktuellen Inhalte und bietet relevantere Antworten in natürlicher Sprache auf Ihre Prompts.

Select AI automatisiert den Retrieval Augmented Generation (RAG)-Prozess. Diese Technik ruft Daten aus Unternehmensquellen mithilfe der KI-Vektorsuche ab und erweitert Benutzer-Prompts für Ihr angegebenes Large Language Model (LLM). Durch die Nutzung von Informationen aus Unternehmensdatenspeichern reduziert RAG Halluzinationen und generiert fundierte Antworten.

RAG verwendet KI-Vektorsuche auf einem Vektorindex, um semantisch ähnliche Daten für die angegebene Frage zu finden. Vector Store verarbeitet Vektoreinbettungen, die mathematische Darstellungen verschiedener Datenpunkte wie Text, Bilder und Audio sind. Diese Einbettungen erfassen die Bedeutung der Daten und ermöglichen eine effiziente Verarbeitung und Analyse. Weitere Details zu Vektoreinbettungen und AI-Vektorsuche finden Sie unter Überblick über AI Vector Search.

Select AI lässt sich in die KI-Vektorsuche integrieren, die in Oracle Autonomous Database 23ai für die Ähnlichkeitssuche mit Vektoreinbettungen verfügbar ist.

Themen

Erstellen Sie Ihren Vector Store

Select AI automatisiert die Erstellung und Auffüllung des Vektorspeichers, indem Eingabedokumente (z.B. PDF, DOC, JSON, XML oder HTML) aus dem Objektspeicher in Nur-Text konvertiert werden. Oracle Text unterstützt rund 150 Dateitypen. Eine vollständige Liste aller unterstützten Dokumentformate finden Sie unter Unterstützte Dokumentformate.

Select AI verarbeitet Dokumente automatisch in Blöcke, generiert Einbettungen, speichert sie im angegebenen Vektorspeicher und aktualisiert den Vektorindex, wenn neue Daten eintreffen.

So wird die Eingabe aus Object Storage mit Select AI RAG verwendet:

  1. Eingabe: Daten werden zunächst in einem Object Storage gespeichert.
  2. Oracle Autonomous Database ruft die Eingabedaten oder das Dokument ab, verarbeitet sie und sendet die Blöcke an ein Einbettungsmodell.
  3. Das Einbettungsmodell verarbeitet die Chunk-Daten und gibt Vektoreinbettungen zurück.
  4. Die Vektoreinbettungen werden dann in einem Vektorspeicher zur Verwendung mit RAG gespeichert. Beim Hinzufügen von Inhalten wird der Vektorindex automatisch aktualisiert.

RAG ruft relevante Informationen aus der Unternehmensdatenbank ab, um die Frage eines Benutzers zu beantworten. Diese Informationen werden dem angegebenen großen Sprachmodell zusammen mit der Benutzereingabe zur Verfügung gestellt. Select AI nutzt diese zusätzlichen Unternehmensinformationen, um den Prompt zu verbessern und die Antwort des LLM zu verbessern. RAG kann die Antwortqualität durch aktualisierte Unternehmensinformationen aus dem Vektorspeicher verbessern.



Select AI implementiert RAG wie folgt:
  1. Eingabe: Der Benutzer stellt mit der Aktion "AI auswählen narrate" eine Frage (gibt einen Prompt an).

  2. Wählen Sie "KI" aus, um Vektoreinbettungen des Prompts mit dem im AI-Profil angegebenen Einbettungsmodell zu generieren.

  3. Der Vektorsuchindex verwendet die Vektoreinbettung der Frage, um übereinstimmende Inhalte aus den Unternehmensdaten des Kunden (Suche des Vektorspeichers) zu finden, die indexiert wurden.

  4. Die Vektorsuche gibt Top-K-Texte zurück, die der Eingabe für Ihre Autonomous Database-Instanz ähneln.
  5. Autonomous Database sendet dann diese Top-K-Abfrageergebnisse mit Benutzerfrage an das LLM.
  6. Das LLM gibt seine Antwort an Ihre Autonomous Database-Instanz zurück.
  7. Autonomous Database Select AI liefert die Antwort an den Benutzer.

Mit DBMS_CLOUD_AI Vektorindizes erstellen und verwalten

Verwenden Sie das Package DBMS_CLOUD_AI, um Vektorindizes zu erstellen und zu verwalten und JSON-Parameter für Vektordatenbanken zu konfigurieren.

Nachdem Sie Zugangsdaten erstellt und Netzwerkzugriff auf die Vektordatenbank und den KI-Provider bereitgestellt haben, verwendet Ihre Autonomous Database-Instanz KI-Profile, um den Zugriff auf LLMs zu konfigurieren. Ein vollständiges Beispiel zum Einrichten und Verwenden von AI in Select AI-Anweisungen finden Sie unter Beispiel: AI mit RAG einrichten und verwenden.
Hinweis

Wenn Sie nicht möchten, dass Tabellendaten oder Vektorsuchdokumente an ein LLM gesendet werden, kann ein Benutzer mit Administratorberechtigungen diesen Zugriff für alle Benutzer der angegebenen Datenbank deaktivieren. Dadurch wird die Aktion narrate für RAG deaktiviert.

Sie können KI-Profile für Provider konfigurieren, die unter KI-Provider und LLMs auswählen über das Package DBMS_CLOUD_AI aufgeführt sind.

Siehe auch:

Datenbankinterne Transformer-Modelle verwenden

Mit Select AI RAG können Sie vortrainierte ONNX-Transformermodelle verwenden, die in die Datenbank in der Oracle Database 23ai-Instanz importiert werden, um Einbettungsvektoren aus Dokument-Chunks und Benutzer-Prompts zu generieren.

Hinweis

Sie müssen ein vortrainiertes Transformatormodell im ONNX-Format in die Oracle Database 23ai-Instanz importieren, um Select AI RAG mit dem importierten datenbankinternen Transformatormodell zu verwenden. Sie können auch andere Transformer-Modelle von unterstützten KI-Providern verwenden.

Informationen zum Feature finden Sie unter Beispiel: AI mit datenbankinternen Transformer-Modellen auswählen.

Vorteile von Select AI RAG

Vereinfachen Sie die Abfrage, verbessern Sie die Antwortgenauigkeit mit aktuellen Daten und erhalten Sie Transparenz, indem Sie die vom LLM verwendeten Quellen prüfen.

Select AI RAG bietet folgende Vorteile:
  • Vereinfachen Sie die Datenabfrage und erhöhen Sie die Reaktionsgenauigkeit: Ermöglichen Sie es Benutzern, Unternehmensdaten in natürlicher Sprache abzufragen, und stellen Sie LLMs einen detaillierten Kontext aus Unternehmensdaten zur Verfügung, um genauere und relevantere Antworten zu generieren und LLM-Halluzinationen zu reduzieren.

  • Aktuelle Informationen: Bieten Sie LLMs mithilfe von Vektorspeichern Zugriff auf aktuelle Unternehmensinformationen, sodass keine kostspielige, zeitaufwendige Feinabstimmung von LLMs erforderlich ist, die auf statischen Datasets trainiert sind.

  • Nahtlose Integration: Integrieren Sie Oracle AI Vector Search, um die Datenverarbeitung zu optimieren und die Performance zu verbessern.

  • Automatisierte Datenorchestrierung: Automatisieren Sie Orchestrierungsschritte mit einer vollständig verwalteten Vector Index-Pipeline, um eine effiziente Verarbeitung neuer Daten sicherzustellen.

  • Verständliche kontextbezogene Ergebnisse: Hat Zugriff auf und ruft die vom LLM verwendeten Quellen aus Vektorspeichern ab, um Transparenz und Vertrauen in die Ergebnisse zu gewährleisten. Zeigt Daten im natürlichen Sprachtext oder JSON-Format an und extrahiert sie für eine einfachere Integration und Anwendungsentwicklung.