KI mit Retrieval Augmented Generation (RAG) auswählen
Wählen Sie AI mit RAG erweitert Ihre Eingabeaufforderung in natürlicher Sprache, indem Sie Inhalte aus Ihrem angegebenen Vektorspeicher mithilfe der semantischen Ähnlichkeitssuche abrufen. Dies reduziert Halluzinationen durch die Verwendung Ihrer spezifischen und aktuellen Inhalte und bietet relevantere Antworten in natürlicher Sprache auf Ihre Prompts.
Select AI automatisiert den Retrieval Augmented Generation (RAG)-Prozess. Diese Technik ruft Daten aus Unternehmensquellen mithilfe der KI-Vektorsuche ab und erweitert Benutzer-Prompts für Ihr angegebenes Large Language Model (LLM). Durch die Nutzung von Informationen aus Unternehmensdatenspeichern reduziert RAG Halluzinationen und generiert fundierte Antworten.
RAG verwendet KI-Vektorsuche auf einem Vektorindex, um semantisch ähnliche Daten für die angegebene Frage zu finden. Vector Store verarbeitet Vektoreinbettungen, die mathematische Darstellungen verschiedener Datenpunkte wie Text, Bilder und Audio sind. Diese Einbettungen erfassen die Bedeutung der Daten und ermöglichen eine effiziente Verarbeitung und Analyse. Weitere Details zu Vektoreinbettungen und AI-Vektorsuche finden Sie unter Überblick über AI Vector Search.
Select AI lässt sich in die KI-Vektorsuche integrieren, die in Oracle Autonomous Database 23ai für die Ähnlichkeitssuche mit Vektoreinbettungen verfügbar ist.
Themen
- Vektorspeicher erstellen
- Vektorindizes mit DBMS_CLOUD_AI erstellen und verwalten
Mit dem PackageDBMS_CLOUD_AI
können Sie Vektorindizes erstellen und verwalten und JSON-Parameter für Vektordatenbanken konfigurieren. - Datenbankinterne Transformer-Modelle verwenden
Mit AI RAG können Sie vortrainierte ONNX-Transformermodelle verwenden, die in die Datenbank in der Oracle Database 23ai-Instanz importiert werden, um Einbettungsvektoren aus Dokument-Chunks und Benutzer-Prompts zu generieren. - Vorteile von Select AI RAG
Vereinfachen Sie die Abfrage, verbessern Sie die Antwortgenauigkeit mit aktuellen Daten, und gewinnen Sie Transparenz, indem Sie die vom LLM verwendeten Quellen prüfen.
Übergeordnetes Thema: Select AI für Natural Language Interaction mit Ihrer Datenbank verwenden
Erstellen Sie Ihren Vector Store
Select AI verarbeitet Dokumente automatisch in Blöcke, generiert Einbettungen, speichert sie im angegebenen Vektorspeicher und aktualisiert den Vektorindex, wenn neue Daten eintreffen.
- Eingabe: Daten werden zunächst in einem Object Storage gespeichert.
- Oracle Autonomous Database ruft die Eingabedaten oder das Dokument ab, verarbeitet sie und sendet die Blöcke an ein Einbettungsmodell.
- Das Einbettungsmodell verarbeitet die Chunk-Daten und gibt Vektoreinbettungen zurück.
- Die Vektoreinbettungen werden dann in einem Vektorspeicher zur Verwendung mit RAG gespeichert. Beim Hinzufügen von Inhalten wird der Vektorindex automatisch aktualisiert.
RAG ruft relevante Informationen aus der Unternehmensdatenbank ab, um die Frage eines Benutzers zu beantworten. Diese Informationen werden dem angegebenen großen Sprachmodell zusammen mit der Benutzereingabe zur Verfügung gestellt. Select AI nutzt diese zusätzlichen Unternehmensinformationen, um den Prompt zu verbessern und die Antwort des LLM zu verbessern. RAG kann die Antwortqualität durch aktualisierte Unternehmensinformationen aus dem Vektorspeicher verbessern.
-
Eingabe: Der Benutzer stellt mit der Aktion "AI auswählen
narrate
" eine Frage (gibt einen Prompt an). -
Wählen Sie "KI" aus, um Vektoreinbettungen des Prompts mit dem im AI-Profil angegebenen Einbettungsmodell zu generieren.
-
Der Vektorsuchindex verwendet die Vektoreinbettung der Frage, um übereinstimmende Inhalte aus den Unternehmensdaten des Kunden (Suche des Vektorspeichers) zu finden, die indexiert wurden.
- Die Vektorsuche gibt Top-K-Texte zurück, die der Eingabe für Ihre Autonomous Database-Instanz ähneln.
- Autonomous Database sendet dann diese Top-K-Abfrageergebnisse mit Benutzerfrage an das LLM.
- Das LLM gibt seine Antwort an Ihre Autonomous Database-Instanz zurück.
- Autonomous Database Select AI liefert die Antwort an den Benutzer.
Übergeordnetes Thema: KI mit Retrieval Augmented Generation (RAG) auswählen
Mit DBMS_CLOUD_AI Vektorindizes erstellen und verwalten
Verwenden Sie das Package DBMS_CLOUD_AI
, um Vektorindizes zu erstellen und zu verwalten und JSON-Parameter für Vektordatenbanken zu konfigurieren.
Wenn Sie nicht möchten, dass Tabellendaten oder Vektorsuchdokumente an ein LLM gesendet werden, kann ein Benutzer mit Administratorberechtigungen diesen Zugriff für alle Benutzer der angegebenen Datenbank deaktivieren. Dadurch wird die Aktion narrate
für RAG deaktiviert.
Sie können KI-Profile für Provider konfigurieren, die unter KI-Provider und LLMs auswählen über das Package DBMS_CLOUD_AI
aufgeführt sind.
Siehe auch:
-
Vektorindex erstellen: Prozedur CREATE_VECTOR_INDEX.
- Vektorindexprofile und andere KI-Profile verwalten: Zusammenfassung der DBMS_CLOUD_AI-Unterprogramme
- Abfragevektorindexansichten: DBMS_CLOUD_AI Ansichten.
Übergeordnetes Thema: KI mit Retrieval Augmented Generation (RAG) auswählen
Datenbankinterne Transformer-Modelle verwenden
Mit Select AI RAG können Sie vortrainierte ONNX-Transformermodelle verwenden, die in die Datenbank in der Oracle Database 23ai-Instanz importiert werden, um Einbettungsvektoren aus Dokument-Chunks und Benutzer-Prompts zu generieren.
Sie müssen ein vortrainiertes Transformatormodell im ONNX-Format in die Oracle Database 23ai-Instanz importieren, um Select AI RAG mit dem importierten datenbankinternen Transformatormodell zu verwenden. Sie können auch andere Transformer-Modelle von unterstützten KI-Providern verwenden.
Informationen zum Feature finden Sie unter Beispiel: AI mit datenbankinternen Transformer-Modellen auswählen.
Übergeordnetes Thema: KI mit Retrieval Augmented Generation (RAG) auswählen
Vorteile von Select AI RAG
Vereinfachen Sie die Abfrage, verbessern Sie die Antwortgenauigkeit mit aktuellen Daten und erhalten Sie Transparenz, indem Sie die vom LLM verwendeten Quellen prüfen.
-
Vereinfachen Sie die Datenabfrage und erhöhen Sie die Reaktionsgenauigkeit: Ermöglichen Sie es Benutzern, Unternehmensdaten in natürlicher Sprache abzufragen, und stellen Sie LLMs einen detaillierten Kontext aus Unternehmensdaten zur Verfügung, um genauere und relevantere Antworten zu generieren und LLM-Halluzinationen zu reduzieren.
-
Aktuelle Informationen: Bieten Sie LLMs mithilfe von Vektorspeichern Zugriff auf aktuelle Unternehmensinformationen, sodass keine kostspielige, zeitaufwendige Feinabstimmung von LLMs erforderlich ist, die auf statischen Datasets trainiert sind.
-
Nahtlose Integration: Integrieren Sie Oracle AI Vector Search, um die Datenverarbeitung zu optimieren und die Performance zu verbessern.
-
Automatisierte Datenorchestrierung: Automatisieren Sie Orchestrierungsschritte mit einer vollständig verwalteten Vector Index-Pipeline, um eine effiziente Verarbeitung neuer Daten sicherzustellen.
-
Verständliche kontextbezogene Ergebnisse: Hat Zugriff auf und ruft die vom LLM verwendeten Quellen aus Vektorspeichern ab, um Transparenz und Vertrauen in die Ergebnisse zu gewährleisten. Zeigt Daten im natürlichen Sprachtext oder JSON-Format an und extrahiert sie für eine einfachere Integration und Anwendungsentwicklung.
Übergeordnetes Thema: KI mit Retrieval Augmented Generation (RAG) auswählen