AI mit Retrieval Augmented Generation (RAG) auswählen
Wählen Sie AI mit RAG aus, um Ihre Eingabeaufforderung in natürlicher Sprache zu erweitern, indem Sie mit der semantischen Ähnlichkeitssuche Inhalte aus dem angegebenen Vektorspeicher abrufen. Dies reduziert Halluzinationen, indem Sie Ihre spezifischen und aktuellen Inhalte verwenden, und liefert relevantere Antworten in natürlicher Sprache auf Ihre Aufforderungen.
Select AI automatisiert den Prozess Retrieval Augmented Generation (RAG). Diese Technik ruft Daten aus Unternehmensquellen mithilfe der KI-Vektorsuche ab und erweitert Benutzer-Prompts für das angegebene Large Language Model (LLM). Durch die Nutzung von Informationen aus Unternehmensdatenspeichern reduziert RAG Halluzinationen und generiert geerdete Antworten.
RAG verwendet die AI-Vektorsuche auf einem Vektorindex, um semantisch ähnliche Daten für die angegebene Frage zu finden. Vector Store verarbeitet Vektoreinbettungen, bei denen es sich um mathematische Darstellungen verschiedener Datenpunkte wie Text, Bilder und Audio handelt. Diese Einbettungen erfassen die Bedeutung der Daten und ermöglichen eine effiziente Verarbeitung und Analyse. Weitere Informationen zu Vektoreinbettungen und zur KI-Vektorsuche finden Sie unter Überblick über die KI-Vektorsuche.
Select AI lässt sich in die KI-Vektorsuche integrieren, die in Oracle Autonomous Database 23ai für die Ähnlichkeitssuche mit Vektoreinbettungen verfügbar ist.
Themen
- Ihren Vector Store erstellen
- Verwenden Sie DBMS_CLOUD_AI, um Vektorindizes zu erstellen und zu verwalten
Verwenden Sie das PackageDBMS_CLOUD_AI
, um Vektorindizes zu erstellen und zu verwalten und JSON-Parameter der Vektordatenbank zu konfigurieren. - Datenbankinterne Transformer-Modelle verwenden
Mit AI RAG können Sie vortrainierte ONNX-Transformermodelle verwenden, die in die Datenbank in der Oracle Database 23ai-Instanz importiert werden, um Einbettungsvektoren aus Dokumentblöcken und Benutzer-Prompts zu generieren. - Vorteile von Select AI RAG
Vereinfachen Sie die Abfrage, verbessern Sie die Antwortgenauigkeit mit aktuellen Daten, und gewinnen Sie Transparenz, indem Sie die vom LLM verwendeten Quellen prüfen.
Übergeordnetes Thema: Select AI für Natural Language Interaction mit Ihrer Datenbank verwenden
Erstellen Sie Ihren Vector Store
Select AI verarbeitet Dokumente automatisch in Chunks, generiert Einbettungen, speichert sie im angegebenen Vektorspeicher und aktualisiert den Vektorindex, sobald neue Daten eintreffen.
- Eingabe: Die Daten werden zunächst in einem Objektspeicher gespeichert.
- Oracle Autonomous Database ruft die Eingabedaten oder das Dokument ab, segmentiert sie und sendet die Chunks an ein Einbettungsmodell.
- Das Einbettungsmodell verarbeitet die Chunk-Daten und gibt Vektoreinbettungen zurück.
- Die Vektoreinbettungen werden dann in einem Vektorspeicher für die Verwendung mit RAG gespeichert. Beim Hinzufügen von Inhalten wird der Vektorindex automatisch aktualisiert.
RAG ruft relevante Informationen aus der Unternehmensdatenbank ab, um die Frage eines Benutzers zu beantworten. Diese Informationen werden zusammen mit der Benutzereingabe an das angegebene große Sprachmodell übermittelt. Select AI verwendet diese zusätzlichen Unternehmensinformationen, um die Eingabeaufforderung zu verbessern und die Antwort des LLM zu verbessern. RAG kann die Antwortqualität mit aktualisierten Unternehmensinformationen aus dem Vektorspeicher verbessern.
-
Eingabe: Der Benutzer stellt eine Frage (gibt einen Prompt an) mit der Aktion "AI
narrate
auswählen". -
Bei Auswahl von AI werden Vektoreinbettungen des Prompts mit dem im AI-Profil angegebenen Einbettungsmodell generiert.
-
Der Vektorsuchindex verwendet die Vektoreinbettung der Frage, um übereinstimmende Inhalte aus den indizierten Unternehmensdaten des Kunden (Suche des Vektorspeichers) zu finden.
- Die Vektorsuche gibt die besten K-Texte zurück, die der Eingabe für Ihre Autonomous Database-Instanz ähneln.
- Autonomous Database sendet diese Top-K-Abfrageergebnisse mit Benutzerfrage an das LLM.
- Der LLM gibt seine Antwort an die Autonomous Database-Instanz zurück.
- Autonomous Database Select AI stellt dem Benutzer die Antwort bereit.
Übergeordnetes Thema: AI mit Retrieval Augmented Generation (RAG) auswählen
Verwenden Sie DBMS_CLOUD_AI, um Vektorindizes zu erstellen und zu verwalten
Verwenden Sie das Package DBMS_CLOUD_AI
, um Vektorindizes zu erstellen und zu verwalten und JSON-Parameter für Vektordatenbanken zu konfigurieren.
Wenn Sie nicht möchten, dass Tabellendaten oder Vektorsuchdokumente an ein LLM gesendet werden, kann ein Benutzer mit Administratorberechtigungen diesen Zugriff für alle Benutzer der angegebenen Datenbank deaktivieren. Dadurch wird die Aktion narrate
für RAG deaktiviert.
Sie können AI-Profile für Provider konfigurieren, die unter AI-Provider und LLMs auswählen im Package DBMS_CLOUD_AI
aufgeführt sind.
Siehe auch:
-
Erstellen Sie einen Vektorindex: Prozedur CREATE_VECTOR_INDEX.
- Vektorindexprofile und andere AI-Profile verwalten: Zusammenfassung der DBMS_CLOUD_AI-Unterprogramme
- Abfragevektorindex-Views: DBMS_CLOUD_AI Views.
Übergeordnetes Thema: AI mit Retrieval Augmented Generation (RAG) auswählen
Datenbankinterne Transformer-Modelle verwenden
Mit Select AI RAG können Sie vortrainierte ONNX-Transformermodelle verwenden, die in Ihre Datenbank in der Oracle Database 23ai-Instanz importiert werden, um Einbettungsvektoren aus Dokumentblöcken und Benutzer-Prompts zu generieren.
Sie müssen ein vortrainiertes Transformer-Modell im ONNX-Format in die Oracle Database 23ai-Instanz importieren, um Select AI RAG mit importiertem datenbankinternem Transformer-Modell zu verwenden. Sie können auch andere Transformer-Modelle von unterstützten KI-Providern verwenden.
Informationen zum Feature finden Sie unter Beispiel: AI mit datenbankinternen Transformer-Modellen auswählen.
Übergeordnetes Thema: AI mit Retrieval Augmented Generation (RAG) auswählen
Vorteile von Select AI RAG
Vereinfachen Sie die Abfrage, verbessern Sie die Antwortgenauigkeit mit aktuellen Daten und gewinnen Sie Transparenz, indem Sie die vom LLM verwendeten Quellen prüfen.
-
Vereinfachen Sie die Datenabfrage und erhöhen Sie die Antwortgenauigkeit: Ermöglichen Sie Benutzern, Unternehmensdaten in natürlicher Sprache abzufragen, und stellen Sie LLMs detaillierten Kontext aus Unternehmensdaten zur Verfügung, um genauere und relevantere Antworten zu generieren und Instanzen von LLM-Halluzinationen zu reduzieren.
-
Aktuelle Informationen: Bieten Sie LLMs Zugriff auf aktuelle Unternehmensinformationen mithilfe von Vektorspeichern, sodass keine kostspieligen, zeitaufwendigen Optimierungen von LLMs erforderlich sind, die auf statischen Datasets trainiert werden.
-
Nahtlose Integration: Integration mit Oracle AI Vector Search für optimierte Datenverarbeitung und verbesserte Performance.
-
Automatisierte Datenorchestrierung: Automatisieren Sie Orchestrierungsschritte mit einer vollständig verwalteten Vector Index-Pipeline, um eine effiziente Verarbeitung neuer Daten sicherzustellen.
-
Verständliche kontextbezogene Ergebnisse: Hat Zugriff und ruft die vom LLM verwendeten Quellen aus Vektorspeichern ab, um Transparenz und Vertrauen in die Ergebnisse zu gewährleisten. Zeigt Daten im Text in natürlicher Sprache oder im JSON-Format an und extrahiert sie für eine einfachere Integration und Anwendungsentwicklung.
Übergeordnetes Thema: AI mit Retrieval Augmented Generation (RAG) auswählen