KI-Konzepte auswählen

Erforscht die Konzepte und Begriffe im Zusammenhang mit Select AI.

Aktionen

Eine Aktion in Select AI ist ein Schlüsselwort, das Select AI anweist, bei der Eingabeaufforderung ein anderes Verhalten auszuführen. Durch Angabe einer Aktion können Benutzer Select AI anweisen, ihre Eingabeaufforderung in natürlicher Sprache zu verarbeiten, um SQL-Code zu generieren, auf eine Chat-Eingabeaufforderung zu reagieren, die Ausgabe zu erzählen, die SQL-Anweisung anzuzeigen oder den SQL-Code zu erläutern und die LLMs zu nutzen, um effizient mit den Daten in ihrer Datenbankumgebung zu interagieren.

Die folgenden Aktionen werden für "AI auswählen" unterstützt:

  • runsql: Generiert die SQL-Anweisung für eine Eingabeaufforderung in natürlicher Sprache und führt die zugrunde liegende SQL-Abfrage aus, um ein ZeilenSet zurückzugeben. Dies ist die Standardaktion und erfordert keine Angabe dieses Parameters.

  • showsql: Zeigt die SQL-Anweisung für eine Eingabeaufforderung in natürlicher Sprache an.

  • narrate: Sendet das Ergebnis der von der Datenbank ausgeführten SQL-Abfrage zurück an das LLM, um eine Beschreibung dieses Ergebnisses in natürlicher Sprache zu generieren.

    Wenn ein Vektorindex im AI-Profil angegeben wird, um RAG zu aktivieren, verwendet das System das angegebene Transformatormodell, um eine Vektoreinbettung aus dem Prompt für die semantische Ähnlichkeitssuche im Vektorspeicher zu erstellen. Das System fügt dann den abgerufenen Inhalt aus dem Vektorspeicher der Benutzereingabeaufforderung hinzu und sendet ihn an das LLM, um eine Antwort basierend auf diesen Informationen zu generieren.

  • chat: Übergibt den Benutzer-Prompt direkt an das LLM, um eine Antwort zu generieren, die dem Benutzer bereitgestellt wird.

  • explainsql: Erläutert die generierte SQL aus dem Prompt in natürlicher Sprache. Mit dieser Option wird die generierte SQL an den AI-Provider gesendet, der dann eine Erklärung in natürlicher Sprache erstellt.

Weitere Informationen zur Verwendung dieser Aktionen finden Sie unter Beispiele für die Verwendung von Select AI.

KI-Profil

Ein KI-Profil ist eine Spezifikation, die den zu verwendenden KI-Provider und andere Details zu Metadaten und Datenbankobjekten umfasst, die zum Generieren von Antworten auf Eingabeaufforderungen in natürlicher Sprache erforderlich sind. Siehe Prozedur CREATE_PROFILE und Profilattribute.

KI-Provider

Ein KI-Provider in Select AI bezieht sich auf den Serviceprovider, der das LLM oder den Transformer oder beides zur Verarbeitung und Generierung von Antworten auf Eingabeaufforderungen in natürlicher Sprache bereitstellt. Diese Provider bieten Modelle an, die natürliche Sprache für die unter dem LLM-Konzept hervorgehobenen Anwendungsfälle interpretieren und konvertieren können. Informationen zu den unterstützten Providern finden Sie unter KI-Provider und LLMs auswählen.

Unterhaltungen

Unterhaltungen in Select AI stellen einen interaktiven Austausch zwischen dem Benutzer und dem System dar, der es Benutzern ermöglicht, die Datenbank über eine Reihe von Eingabeaufforderungen in natürlicher Sprache abzufragen oder mit ihr zu interagieren. Select AI integriert bis zu 10 vorherige Prompts in die aktuelle Anforderung und erstellt einen erweiterten Prompt, der an das LLM gesendet wird. Siehe Unterhaltungen aktivieren, um die Benutzerinteraktion zu verbessern.

Datenbankzugangsdaten

Datenbankzugangsdaten sind Authentifizierungszugangsdaten, die für den Zugriff auf und die Interaktion mit Datenbanken verwendet werden. Sie bestehen in der Regel aus einem Benutzernamen und einem Passwort, manchmal ergänzt durch zusätzliche Authentifizierungsfaktoren wie Sicherheitstoken. Diese Zugangsdaten werden verwendet, um eine sichere Verbindung zwischen einer Anwendung oder einem Benutzer und einer Datenbank herzustellen, sodass nur autorisierte Personen oder Systeme auf die in der Datenbank gespeicherten Daten zugreifen und diese bearbeiten können.

Halluzination im LLM

Halluzination im Kontext von Large Language Models bezieht sich auf ein Phänomen, bei dem das Modell Text generiert, der falsch, unsinnig oder nicht mit der Eingabeaufforderung verbunden ist. Obwohl diese Antworten auf den Versuch des Modells zurückzuführen sind, kohärenten Text zu generieren, können sie Informationen enthalten, die fabriziert, irreführend oder rein phantasievoll sind. Halluzination kann aufgrund von Verzerrungen in Trainingsdaten, fehlendem Kontextverständnis oder Einschränkungen im Trainingsprozess des Modells auftreten.

IAM

Mit Oracle Cloud Infrastructure Identity and Access Management (IAM) können Sie den Zugriff auf Ihre Cloud-Ressourcen kontrollieren. Sie können den Zugriffstyp einer Benutzergruppe kontrollieren und festlegen, für welche spezifischen Ressourcen der Zugriff gilt. Weitere Informationen finden Sie unter Überblick über Identity and Access Management.

Großes Sprachmodell (LLM)

Ein Large Language Model (LLM) bezieht sich auf eine fortschrittliche Art von Modell für künstliche Intelligenz, das auf großen Mengen an Textdaten trainiert wird, um je nach Trainingsdaten eine Reihe von Anwendungsfällen zu unterstützen. Dazu gehören das Verständnis und die Generierung von menschenähnlicher Sprache sowie Softwarecode und Datenbankabfragen. Diese Modelle sind in der Lage, eine breite Palette von Natural Language Processing-Aufgaben auszuführen, einschließlich Textgenerierung, Übersetzung, Zusammenfassung, Beantwortung von Fragen, Sentimentanalyse und mehr. LLMs basieren in der Regel auf ausgeklügelten neuronalen Deep-Learning-Netzwerkmodellen, die Muster, Kontext und Semantik aus den Eingabedaten lernen, sodass sie kohärenten und kontextbezogenen Text generieren können.

Metadaten

Datenbankmetadaten beziehen sich auf die Daten, die Struktur, Organisation und Eigenschaften der Datenbanktabellen und -ansichten beschreiben.

Metadatenklon

Ein Metadatenklon oder ein Autonomous Database-Klon erstellt eine Kopie einer Metadatendefinition für die Datenbank oder das Schema, die nur die Struktur und nicht die tatsächlichen Daten enthält. Dieser Klon umfasst Tabellen, Indizes, Views, Statistiken, Prozeduren und Trigger ohne Datenzeilen. Entwickler, Tester oder diejenigen, die Datenbankvorlagen erstellen, finden dies hilfreich. Weitere Informationen finden Sie unter Autonomous Database-Instanz klonen, verschieben oder upgraden.

Prompts in natürlicher Sprache

Natural Language Prompts sind menschenlesbare Anweisungen oder Anforderungen, die zur Anleitung generativer KI-Modelle wie Large Language Models bereitgestellt werden. Anstatt bestimmte Programmiersprachen oder Befehle zu verwenden, können Benutzer mit diesen Modellen interagieren, indem sie Eingabeaufforderungen in einer konversationelleren oder natürlicheren Sprachform eingeben. Die Modelle generieren dann die Ausgabe basierend auf dem angegebenen Prompt.

Access-Control-Liste (ACL)

Eine Network Access Control-Liste ist eine Gruppe von Regeln oder Berechtigungen, die definieren, welcher Netzwerkverkehr durch ein Netzwerkgerät wie einen Router, eine Firewall oder ein Gateway geleitet werden darf. ACLs werden verwendet, um eingehenden und abgehenden Datenverkehr basierend auf verschiedenen Kriterien wie IP-Adressen, Portnummern und Protokollen zu steuern und zu filtern. Sie spielen eine entscheidende Rolle bei der Netzwerksicherheit, da Administratoren den Netzwerkverkehr verwalten und einschränken können, um unbefugten Zugriff, potenzielle Angriffe und Datenverletzungen zu verhindern.

Retrieval Augmented Generation (RAG)

Retrieval Augmented Generation (RAG) ist eine Technik, bei der relevante Informationen für die Abfrage eines Benutzers abgerufen und an ein großes Sprachmodell (LLM) geliefert werden, um die Antworten zu verbessern und die Halluzination zu reduzieren.

Am häufigsten handelt es sich bei der RAG um eine Vektorsuche, im Allgemeinen jedoch um die Erweiterung einer Eingabeaufforderung von Datenbankinhalten (manuell oder automatisch), wie z. B. Schemametadaten für die SQL-Generierung oder explizit abgefragter Datenbankinhalt. Andere Formen der Erweiterung können Technologien wie Diagrammanalyse und traditionelles maschinelles Lernen umfassen.

Suche nach semantischer Ähnlichkeit

Bei der semantischen Ähnlichkeitssuche werden Datenpunkte identifiziert und abgerufen, die einer bestimmten Abfrage entsprechen, indem Featurevektoren in einem Vektorspeicher verglichen werden.

Vektorabstand

Vektorabstand misst die Ähnlichkeit oder Unähnlichkeit zwischen Merkmalvektoren, indem der Abstand zwischen ihnen in einem mehrdimensionalen Raum berechnet wird.

Vektorindex

Ein Vektorindex organisiert und speichert Vektoren, um eine effiziente Ähnlichkeitssuche und -abfrage verwandter Daten zu ermöglichen.

Vektoren

Ein Vektorspeicher umfasst Systeme, die semantische Ähnlichkeitssuche mit Vektoreinbettungen speichern, verwalten und ermöglichen. Dazu gehören Standalone-Vektordatenbanken und Oracle Database 23ai AI Vector Search.