Informationen zu Select AI
Verwenden Sie natürliche Sprache, um mit Ihrer Datenbank und Ihren LLMs über SQL zu interagieren, um die Benutzerproduktivität zu verbessern und KI-basierte Anwendungen zu entwickeln. Select AI vereinfacht und automatisiert die Verwendung generativer KI, unabhängig davon, ob SQL aus einer Eingabeaufforderung in natürlicher Sprache generiert, ausgeführt und erklärt wird. Dabei wird die Retrieval Augmented Generation mit Vektorspeichern verwendet, synthetische Daten generiert oder mit dem LLM gechattet.
Wenn Sie Select AI verwenden, verwaltet Autonomous Database den Prozess der Konvertierung natürlicher Sprache in SQL. Dies bedeutet, dass Sie eine Eingabeaufforderung in natürlicher Sprache anstelle von SQL-Code für die Interaktion mit Ihren Daten bereitstellen können. Select AI dient als Produktivitäts-Tool für SQL-Benutzer und -Entwickler und ermöglicht es nicht erfahrenen SQL-Benutzern, nützliche Erkenntnisse aus ihren Daten abzuleiten, ohne Datenstrukturen oder technische Sprachen verstehen zu müssen.
Select AI automatisiert auch den Retrieval Augmented Generation (RAG)-Prozess von der Generierung von Vektoreinbettungen bis zum Abrufen relevanter Inhalte basierend auf Ihrem Prompt durch die semantische Ähnlichkeitssuche mit Ihrem Vektorspeicher. Weitere Features sind die Generierung synthetischer Daten, die Unterstützung der Chathistorie für Unterhaltungen und andere Funktionen über eine SQL-Schnittstelle.
DBMS_CLOUD_AI
-Package ermöglicht die Integration mit einem benutzerdefinierten LLM zur Generierung von SQL-Code mit Eingabeaufforderungen in natürlicher Sprache. Für die Generierung von natürlicher Sprache in SQL stellt dieses Package einen erweiterten Prompt für das LLM bereit, der die relevanten Metadaten des Datenbankschemas enthält. Auf diese Weise können Sie SQL-Abfragen basierend auf Eingabeaufforderungen in natürlicher Sprache generieren, ausführen und erklären. Es erleichtert auch die Retrieval Augmented Generation mit Vektorspeichern, synthetische Datengenerierung und ermöglicht das Chatten mit dem LLM. Das DBMS_CLOUD_AI
-Package funktioniert mit KI-Providern, die unter KI-Provider und LLMs auswählen aufgeführt sind.
-
Sie müssen über einen Account beim AI-Provider verfügen und die Zugangsdaten über
DBMS_CLOUD_AI
-Objekte angeben, die von Autonomous Database verwendet werden. -
Sie können Prompts in mehreren Sprachen weiterleiten. Die Qualität des Ergebnisses hängt von den Fähigkeiten des spezifischen LLM oder des verwendeten Einbettungsmodells (Transformer) ab. Prüfen Sie Ihre LLM- oder Einbettungsmodelldokumentation, um mehrsprachige Unterstützung zu erhalten.
Themen
- Verwendungsrichtlinien
Bietet Verwendungsrichtlinien, um die Verwendung von Select AI für die Generierung von natürlicher Sprache zu unterstützen. - Unterstützte Plattformen
Die Auswahl von KI wird auf Autonomous Database Serverless und Autonomous Database on Dedicated Exadata Infrastructure und Cloud at Customers unterstützt. - Wählen Sie Ihren KI-Anbieter und Ihre LLMs aus
Wählen Sie einen KI-Anbieter und ein LLM, das Ihre Sicherheitsstandards erfüllt und Ihren spezifischen Anforderungen entspricht, wie Text- oder Codegenerierung.
Übergeordnetes Thema: Select AI für Natural Language Interaction mit Ihrer Datenbank verwenden
Verwendungsrichtlinien
Enthält Verwendungsrichtlinien zur Unterstützung bei der Verwendung von Select AI für die Generierung von natürlicher Sprache in SQL.
Verwendungszweck
Mit diesem Feature werden SQL-Abfragen aus benutzerdefinierten Eingabeaufforderungen in natürlicher Sprache generiert, ausgeführt und erläutert. Es automatisiert Aufgaben, die Benutzer andernfalls manuell mit ihren Schemametadaten und einem großen Sprachmodell (LLM) ihrer Wahl ausführen würden. Darüber hinaus erleichtert es die Retrieval Augmented Generation mit Vektorspeichern und ermöglicht das Chatten mit dem LLM.
Abhängig von der angegebenen KI-Aktion "Auswählen" geben Sie einen Prompt an, unabhängig davon, ob es sich um eine natürliche Sprache für die SQL-Generierung, RAG oder den Passthrough-Chat handelt. Select AI automatisiert die Interaktion mit LLMs und Ihrer Datenbank mit SQL- und PL/SQL-Schnittstellen. Insbesondere werden SQL-Abfragen in natürlicher Sprache basierend auf Metadaten aus dem angegebenen Schema und den angegebenen Tabellen generiert. Darüber hinaus erleichtert es die chatbasierte generative KI, die optional durch Inhalte aus Vektorspeichern durch Retrieval Augmented Generation (RAG) für eine verbesserte Antwortqualität verbessert wird. Außerdem werden SQL-Abfragen basierend auf Eingabeaufforderungen in natürlicher Sprache erläutert. Außerdem wird die Generierung synthetischer Daten für eine oder mehrere Schematabellen unterstützt. Mit "AI auswählen" können Sie allgemeine Anforderungen mit der Aktion chat
weiterleiten.
Prompt-Erweiterungsdaten
Bei der Generierung von SQL-Abfragen erweitert die Datenbank den benutzerdefinierten Prompt um Datenbankmetadaten, um Halluzinationen aus dem LLM zu mindern. Der erweiterte Prompt wird dann an das benutzerdefinierte LLM gesendet, um die Abfrage zu erstellen. Bei Verwendung von Vektorspeichern mit Retrieval Augmented Generation (RAG) wird der Inhalt aus dem Vektorspeicher mithilfe der semantischen Ähnlichkeitssuche mit dem angegebenen Prompt abgerufen. Dieser Inhalt wird Teil der erweiterten Eingabeaufforderung, die an das LLM gesendet wird.
Die Datenbank erweitert die Eingabeaufforderung nur um Schemametadaten. Diese Metadaten können Schemadefinitionen, Tabellen- und Spaltenkommentare und im Data Dictionary verfügbare Inhalte enthalten. Für die Zwecke der SQL-Generierung stellt die Datenbank beim Erweitern des Prompts keine Tabellen- oder View-Inhalte (tatsächliche Zeilen- oder Spaltenwerte) bereit.
narrate
stellt dem LLM jedoch Folgendes bereit:
- das Ergebnis einer SQL-Abfrage in natürlicher Sprache, die Datenbankdaten enthält, oder
- das Ergebnis der semantischen Ähnlichkeitssuche, wie sie aus dem Vektorspeicher abgerufen wird, der die Retrieval Augmented Generation (RAG) unterstützt.
WARNUNG:
Große Sprachmodelle (LLMs) wurden auf einer breiten Palette von Textdokumentationen und -inhalten trainiert, typischerweise aus dem Internet. Daher können LLMs Muster aus ungültigen oder böswilligen Inhalten, einschließlich SQL-Injection, integriert haben. Daher können LLMs zwar nützliche und relevante Inhalte generieren, aber auch falsche und falsche Informationen generieren, einschließlich SQL-Abfragen, die ungenaue Ergebnisse liefern und/oder die Sicherheit Ihrer Daten beeinträchtigen.
Die Abfragen, die in Ihrem Namen vom benutzerdefinierten LLM-Provider generiert werden, werden in Ihrer Datenbank ausgeführt. Ihre Nutzung dieser Funktion erfolgt ausschließlich auf Ihr eigenes Risiko und ungeachtet anderer Vertragsbedingungen in Bezug auf die von Oracle bereitgestellten Services stellt Ihre Annahme dieses Risikos dar und führt einen ausdrücklichen Ausschluss der Verantwortung oder Haftung von Oracle für Schäden, die sich aus dieser Nutzung ergeben.
Übergeordnetes Thema: Informationen zur AI-Auswahl
Unterstützte Plattformen
Select AI wird auf Autonomous Database Serverless und Autonomous Database on Dedicated Exadata Infrastructure und Cloud at Customers unterstützt.
- Autonomous Database Serverless
- Autonomous Database auf dedizierter Exadata-Infrastruktur
- Autonomous Database on Dedicated Exadata Infrastructure - Region
- Autonomous Database Cloud@Customer
Übergeordnetes Thema: Informationen zur AI-Auswahl
Wählen Sie Ihren KI-Anbieter und Ihre LLMs
Wählen Sie einen KI-Anbieter und ein LLM, das Ihre Sicherheitsstandards erfüllt und Ihren spezifischen Anforderungen entspricht, wie Text- oder Codegenerierung.
Verschiedene LLMs übertreffen verschiedene Aufgaben basierend auf ihren Trainingsdaten und dem beabsichtigten Zweck. Einige Modelle eignen sich hervorragend für die Textgenerierung, können aber bei der Codegenerierung nicht gut funktionieren, während andere speziell für Codierungsaufgaben optimiert sind. Wählen Sie ein LLM, das Ihren Bedürfnissen am besten entspricht.
KI-Provider | LLMs | Einbettungsmodell für RAG | Zweck |
---|---|---|---|
OCI Generative AI |
|
Siehe Informationen zum Einbetten von Modellen in generative KI. |
Die OCI Generative AI-Chatmodelle werden für alle Die OCI-Textmodelle "Generieren" werden nur für die Aktion Informationen zum Konfigurieren Ihrer Profilattribute finden Sie unter Profilattribute. |
Azure OpenAI-Service |
|
text-embedding-ada-002 |
Am besten geeignet für die Generierung von SQL aus Eingabeaufforderungen in natürlicher Sprache, |
OpenAI |
|
text-embedding-ada-002 |
Am besten geeignet für die Generierung von SQL aus Eingabeaufforderungen in natürlicher Sprache, |
OpenAI-kompatibel |
Modelle von OpenAI-kompatiblen Providern wie:
|
Einbetten von Modellen von OpenAI-kompatiblen Anbietern. Beispiel: Siehe Fireworks AI-Einbettungsmodelle. |
Unterstützt eine Vielzahl von Anwendungsfällen. |
Cohere |
|
embed-englisch-v2.0 |
Am besten geeignet für |
|
|
text-embedding-004 (Standard) |
Am besten geeignet für die Generierung von SQL aus Eingabeaufforderungen in natürlicher Sprache, |
Anthrop |
|
NA |
Am besten geeignet für die Generierung von SQL aus Eingabeaufforderungen in natürlicher Sprache, |
Hugging Face |
|
NA |
Am besten geeignet für die Generierung von SQL aus Eingabeaufforderungen in natürlicher Sprache, |
AWS |
|
Unterstützt eine Vielzahl von Anwendungsfällen. |
-
Geben Sie den OpenAI-kompatiblen Provider über
provider_endpoint
anstelle des Parametersprovider
an. Siehe Profilattribute. -
Für Modelle, die Images akzeptieren, verwenden Sie
meta.llama-3.2-90b-vision-instruct
. Dieses Modell wird speziell für Vision und Bilder trainiert. Obwohl es für die Text- und SQL-Generierung verwendet werden kann, eignet sich das Modell am besten für Bilder. Weitere Informationen finden Sie unter Chat in OCI Generative AI.Das Modell
meta.llama-3.2-11b-vision-instruct
bietet robuste multimodale Funktionen. -
Einbettungsmodelle werden auch als Transformatormodelle bezeichnet.
Übergeordnetes Thema: Informationen zur AI-Auswahl