KI-Profil erstellen
Autonomous AI Database verwendet KI-Profile, um den Zugriff auf ein LLM zu erleichtern und zu konfigurieren sowie um SQL basierend auf Eingabeaufforderungen in natürlicher Sprache mit Data Studio zu generieren, auszuführen und zu erläutern.
- Retrieval Augmented Generation-(RAG-)Einstellungen: RAG-Einstellungen konfigurieren Retrieval-Augmented Generation-Pipelines in Oracle Autonomous Database Serverless, sodass KI-Profile unstrukturierte Daten neben strukturierten Tabellen aus Wissensdatenbanken laden und abfragen können. Diese Einstellungen definieren, wie Dokumente für die semantische Suche in Vektoren verarbeitet werden. Dadurch wird die Genauigkeit von
SELECT AIfür Abfragen in natürlicher Sprache verbessert.Hinweis
Sie können nicht auf RAG-Features wie das Erstellen und Verwenden von Vektorindizes in Oracle AI Database 19c zugreifen. Diese Funktionen werden in Oracle AI Database 26ai unterstützt. - Vektorindex: Vektorindizes müssen angegeben werden, um Einbettungen zu speichern, die aus RAG-Pipelines oder Tabellendaten generiert wurden, sodass effiziente Ähnlichkeitssuchen während der KI-Inferenz möglich sind. Bei der Erstellung von KI-Profilen über
DBMS_CLOUD_AI.CREATE_PROFILEverknüpfen die Vektorindizes das Profil mit den Vektorsuchfunktionen von Oracle, um sicherzustellen, dass das KI-Modell relevanten Kontext aus vektorisierten Daten abruft. Sie können Vektorindizes in Data Studio-Einstellungen erstellen. - Tabellenmetadaten:
Tabellenmetadaten, die als
object_listin den Attributen des Profils bereitgestellt werden (z.B. [{"owner": "SH", "name": "customers"}]), geben den Zugriff der KI auf bestimmte Datenbanktabellen an und setzen Sicherheits-Policys durch. Dadurch wird verhindert, dass die KI unbeabsichtigte Daten abfragt, sich an IAM-Steuerelementen ausrichtet und die natürliche Sprache für die SQL-Generierung für definierte Schemas optimiert.
Weitere Informationen finden Sie unter AI mit Retrieval Augmented Generation (RAG) auswählen.
- RAG-Modus: Es verwendet Vector Index für die semantische Suche über unstrukturierte Daten.
- Natural Language to SQL (NL2SQL)-Modus: Um tabellenorientierte Optionen wie den Objektlistenmodus zu aktivieren, ist kein Vektorindex erforderlich.
- Geben Sie auf der Registerkarte Service des Assistenten "KI-Profil erstellen" die folgenden Feldwerte an:
- Profilname: Geben Sie den Namen des AI-Profils ein. Beispiel: OCI AI.
- KI-Provider: Wählen Sie einen der folgenden Provider aus dem Dropdown-Feld aus:
- OCI
- Offene KI
- Azure OpenAI-Service
- Cohere
- Anthrop
- Hugging Face
-
KI-Modell: Wählen Sie die verfügbaren KI-Modelle aus der Dropdown-Liste aus, auf die Ihr KI-Profil verweist, damit die Datenbank Fragen in natürlicher Sprache über Ihre Daten beantwortet und SQL generiert oder erklärt, einschließlich Retrieval-Augmented-Ergebnisse mit Einbettungen und Vektorindizes.
- Zugangsdaten: Dies sind die gespeicherten Zugangsdaten, mit denen die Datenbank eine sichere Verbindung zum externen KI-Provider herstellt, für den Ihr Profil konfiguriert ist.
Unter Erweiterte Einstellungen werden die Generierungseinstellungen und Serviceeinstellungen angezeigt:- Generierungseinstellungen: Mit den Generierungseinstellungen können Sie das Verhalten und die Limits des KI-Modells konfigurieren, auf das über das Profil in den KI-Services von Oracle Cloud Infrastructure zugegriffen wird. So können Sie verschiedene Anwendungsfälle anpassen, wie Chat, SQL-Generierung oder Abfragen in natürlicher Sprache aus Autonomous Database.
- Serviceeinstellungen: Serviceeinstellungen beziehen sich auf die Konfigurationsfelder, die basierend auf dem ausgewählten AI-Provider dynamisch angezeigt werden, sodass Benutzer providerspezifische Zugangsdaten und Parameter wie Endpunkte, Regionen oder Deployment-Namen eingeben können.
Note
For AI Providers such as OpenAI, Cohere, Google, Anthropic, or Hugging Face, the Service Settings section is not displayed.
Die Feldwerte für Serviceeinstellungen variieren je nach ausgewähltem KI-Provider.
Wenn Sie OCI unter AI-Provider auswählen, werden die folgenden Felder angezeigt:- OCI-API-Format: Gibt an, welches Anforderungs- und Antwortschema der Generative AI-Endpunkt erwartet. Beispiel: COHERE, Generic oder ein OCI-natives Format für Oracle-Modelle.
- OCI-Region: Dies ist die OCI-Regions-ID, in der der Endpunkt ausgeführt wird. Dadurch wird sichergestellt, dass Aufrufe aus Ihrer Datenbank an die richtigen regionalen KI-Modelle weitergeleitet werden. Jede OCI-Region der autonomen KI-Datenbank unterstützt verschiedene LLMs – einige Regionen wie
us-chicago-1,uk-london-1undap-osaka-1bieten viele, während andere weniger haben. Wir zeigen nur Modelle an, die in Ihrer ausgewählten Region verfügbar sind. Wenn das OCI AI-Modell nicht angezeigt wird, können Sie die Regionen wechseln, um die Modellliste zu aktualisieren. Weitere Informationen finden Sie unter Regionen mit generativer KI und Pretrained Foundational Models in Generative AI. - OCI-Compartment-ID: Dies ist die OCID des OCI-Compartments, das Eigentümer der zu verwendenden Endpunkte ist. Es umfasst den Zugriff und die Abrechnung auf den richtigen logischen Container in Ihrem Mandanten und stimmt mit Ihren IAM-Policys überein.
- OCI-Endpunkt-ID: Dies ist die OCID eines bestimmten KI-Endpunkts in einem dedizierten KI-Cluster. Beispiel: ocid1.generativeaiendpoint.oc1.us-chicago-1. Wenn Sie dieses Feld angeben, weist Select AI an, diesen dedizierten Endpunkt anstelle eines gemeinsamen On-Demand-Modells zu verwenden.
Wenn Sie im Feld KI-Provider die Option Azure OpenAI Service auswählen, werden die folgenden Felder angezeigt:-
Azure-Ressourcenname: Geben Sie den eindeutigen Namen der Azure OpenAI-Serviceressourceninstanz an, die Teil der Endpunkt-URL (z.B. https://your-resource-name.openai.azure.com/) für den Zugriff auf den Service ist.
-
Azure-Deployment-Name: Geben Sie den benutzerdefinierten Namen an, den Sie beim Deployment eines bestimmten Sprachmodells innerhalb dieser Azure-Ressource OpenAI zuweisen.
-
Deployment-Name für Azure-Einbettung: Geben Sie den benutzerdefinierten Namen eines separaten Deployments für ein Einbettungsmodell (z.B. text-embedding-ada-002 oder text-embedding-3-large) innerhalb derselben Ressource an, das ausschließlich zur Erstellung von Vektordarstellungen von Text verwendet wird.
Weitere Informationen zu den oben genannten Feldern finden Sie unter Azure-Skill OpenAI Einbettung - Azure AI Search | Microsoft Learn.
Unter Generierungseinstellungen können Sie die Felder anzeigen:-
Token stoppen: Dies sind Tokensequenzen, die das AI-Modell anweisen, keine weitere Textausgabe mehr zu generieren. Wenn das Modell eines dieser Token generiert, wird es gestoppt. Dies hilft bei der Steuerung der Antwortlänge und verhindert unerwünschte nachgestellte Texte.
-
Max. Token: Damit wird die maximale Anzahl von Token definiert, die das KI-Modell als Reaktion auf einen Prompt generieren kann. Es begrenzt die Länge der erzeugten Ausgabe, um zu lange oder teure Antworten zu vermeiden.
-
Groß-/Kleinschreibung beachten: Diese Einstellung gibt an, ob die Eingabewerte oder Parameter von der AI-Verarbeitung als Groß-/Kleinschreibung beachtet werden sollen. Bei 'Wahr' muss die exakte Groß-/Kleinschreibung für Eingabe- oder Parameterwerte übereinstimmen.
-
Unterhaltung: Dies gibt in der Regel an, ob das KI-Profil Konversationskontext unterstützt, sodass das Modell Kontext über mehrere Interaktionen oder einen Prompt-Austausch behalten kann – nützlich für KI-Anwendungen im Chatstil.
-
Temperatur: Dies ist ein Schiebereglerparameter, der die Zufälligkeit in den Antworten der KI steuert. Eine niedrigere Temperatur (z.B. 0,2) macht die Ausgabe fokussierter und deterministischer, während eine höhere Temperatur (z.B. 0,8) eine kreativere und vielfältigere Texterzeugung liefert.
Klicken Sie auf Weiter, um zur Registerkarte RAG-Einstellungen von "AI-Profil erstellen" zu gelangen.
- RAG-Einstellungen:
Sie können die folgenden optionalen Felder in den RAG-Einstellungen anzeigen:
- Vektorindex: Wählen Sie den von Ihnen erstellten Vektorindex aus der Liste der verfügbaren Vektorindizes aus. Sie gibt an, welcher Oracle Database-Vektorindex zum Speichern und Durchsuchen der Einbettungen Ihrer Dokumente verwendet werden soll. So kann das KI-Profil während der Retrieval-Augmented Generation schnell den relevantesten Inhalt finden.
Weitere Informationen finden Sie unter Vektorindex erstellen.
Für Ihr KI-Profil ist ein Vektorindex erforderlich.
-
Einbettungsmodell: Gibt an, welches Einbettungsmodell verwendet wird, um Ihren Text in Vektordarstellungen zu konvertieren, die in diesem Index gespeichert sind. Dadurch wird sichergestellt, dass das semantische Suchverhalten mit dem Modell übereinstimmt, das Sie für RAG konfigurieren.
Die oben genannten Felder sind optional. Sie können sie überspringen und auf KI-Profil erstellen klicken, um ein KI-Profil zu erstellen. Alternativ können Sie zur Registerkarte Tabellenmetadaten wechseln.
- Vektorindex: Wählen Sie den von Ihnen erstellten Vektorindex aus der Liste der verfügbaren Vektorindizes aus. Sie gibt an, welcher Oracle Database-Vektorindex zum Speichern und Durchsuchen der Einbettungen Ihrer Dokumente verwendet werden soll. So kann das KI-Profil während der Retrieval-Augmented Generation schnell den relevantesten Inhalt finden.
-
Auf der Registerkarte Tabellenmetadaten können Sie die folgenden optionalen Felder anzeigen:
Hinweis
Wenn Sie die Auswahl eines Vektorindex im vorherigen Schritt übersprungen haben, wird die Einstellung Objektlistenmodus angezeigt.
-
Objektlistenmodus: Sie können eine der verfügbaren Feldoptionen auswählen:
-
Alle: Mit dieser Option werden Metadaten für alle Tabellen in den angegebenen Schemas an das LLM gesendet, damit SQL für alle Tabellen generiert werden kann.
-
Automatisiert: Mit dieser Option kann Select AI automatisch eine Teilmenge der relevanten Tabellen auswählen, indem die Vektorsuche auf Schemametadaten ausgeführt wird. Daher werden nur die wahrscheinlichsten Tabellen für einen bestimmten Prompt verwendet.
-
Ausgewählte Tabellen: Diese Option begrenzt Metadaten auf die spezifischen Tabellen, die Sie im AI-Profil auflisten, sodass die SQL-Generierung auf diese Tabellen beschränkt ist.
Sie können auch die Objektliste anzeigen, in der Sie eine Liste der Objekte auswählen können, die LLM verwenden kann.
Wenn Sie Objektliste auswählen, wird auch eine weitere zusätzliche Einstellung für den Schalter Objektliste durchsetzen angezeigt.
- Keine: Diese Option sendet keine Tabellenmetadaten aus einer Objektliste. Daher kann die AI weder SQL über Tabellen generieren noch sich auf eine andere Konfiguration verlassen, die keine explizite Objektliste verwendet.
Hinweis
Das Feld Objektlistenmodus mit Oracle AI Database 19c kann nicht angezeigt werden. -
-
Anmerkungen: Mit diesem Umschalter können Sie Annotationen aktivieren, die angeben, ob die KI zusätzliche beschreibende Metadaten verwenden kann, die an Objekte angehängt sind (wie Spaltenbeschreibungen oder Tags) als zusätzlichen Kontext beim Generieren von Ergebnissen.
- Kommentare: Mit diesem Umschalter können Sie steuern, ob Tabellen- und Spaltenkommentare aus dem Data Dictionary der KI als Kontext angezeigt werden. Dadurch kann sie die Bedeutung Ihrer Daten besser verstehen.
- Constraints: Mit diesem Umschalter können Sie steuern, ob Informationen zu Primärschlüsseln, Fremdschlüsseln und anderen Constraints für die KI bereitgestellt werden. So kann sie Beziehungen zwischen Tabellen begründen und die Abfragegenauigkeit verbessern.
Klicken Sie auf KI-Profil erstellen.
-
Sie haben Ihr AI-Profil erfolgreich im Assistenten für Data Studio-Einstellungen erstellt und konfiguriert.
Übergeordnetes Thema: Data Studio-Einstellungen


