KI-Konzepte auswählen

Erläutert die Konzepte und Begriffe im Zusammenhang mit Select AI.

Aktionen

Eine Aktion in Select AI ist ein Schlüsselwort, das Select AI anweist, bei der Bearbeitung der Eingabeaufforderung ein anderes Verhalten auszuführen. Durch die Angabe einer Aktion können Benutzer Select AI anweisen, ihre Eingabeaufforderung in natürlicher Sprache zu verarbeiten, um SQL-Code zu generieren, auf eine Chat-Eingabeaufforderung zu reagieren, die Ausgabe zu erzählen, die SQL-Anweisung anzuzeigen oder den SQL-Code zu erläutern und die LLMs zu nutzen, um effizient mit den Daten in ihrer Datenbankumgebung zu interagieren.

Die folgenden Aktionen werden für Select AI unterstützt:

  • runsql: Generiert die SQL-Anweisung für eine Eingabeaufforderung in natürlicher Sprache und führt die zugrunde liegende SQL-Abfrage aus, um ein Rowset zurückzugeben. Dies ist die Standardaktion und erfordert keine Angabe dieses Parameters.

  • showsql: Zeigt die SQL-Anweisung für eine Eingabeaufforderung in natürlicher Sprache an.

  • narrate: Sendet das Ergebnis der von der Datenbank ausgeführten SQL-Abfrage zurück an den LLM, um eine Beschreibung dieses Ergebnisses in natürlicher Sprache zu generieren.

    Wenn ein Vektorindex im AI-Profil angegeben wird, um RAG zu aktivieren, verwendet das System das angegebene Transformatormodell, um eine Vektoreinbettung aus dem Prompt für die semantische Ähnlichkeitssuche gegen den Vektorspeicher zu erstellen. Das System fügt dann den abgerufenen Inhalt aus dem Vektorspeicher zur Benutzereingabe hinzu und sendet ihn an das LLM, um eine Antwort basierend auf diesen Informationen zu generieren.

  • chat: Übergibt die Benutzeraufforderung direkt an das LLM, um eine Antwort zu generieren, die dem Benutzer bereitgestellt wird.

  • explainsql: Erläutert die generierte SQL aus dem Prompt in natürlicher Sprache. Diese Option sendet die generierte SQL an den AI-Provider, der dann eine Erklärung in natürlicher Sprache erstellt.

Weitere Informationen zur Verwendung dieser Aktionen finden Sie unter Beispiele für die Verwendung von Select AI.

KI-Profil

Ein AI-Profil ist eine Spezifikation, die den zu verwendenden AI-Provider und andere Details zu Metadaten und Datenbankobjekten umfasst, die zum Generieren von Antworten auf Eingabeaufforderungen in natürlicher Sprache erforderlich sind. Siehe Prozedur CREATE_PROFILE und Profilattribute.

KI-Provider

Ein AI-Provider in Select AI bezieht sich auf den Serviceprovider, der LLM oder Transformer oder beides zur Verarbeitung und Generierung von Antworten auf Eingabeaufforderungen in natürlicher Sprache bereitstellt. Diese Anbieter bieten Modelle an, die natürliche Sprache für die unter dem LLM-Konzept hervorgehobenen Anwendungsfälle interpretieren und konvertieren können. Informationen zu den unterstützten Providern finden Sie unter AI-Provider und LLMs auswählen.

Gespräche

Unterhaltungen in Select AI stellen einen interaktiven Austausch zwischen dem Benutzer und dem System dar, der es Benutzern ermöglicht, die Datenbank über eine Reihe von Eingabeaufforderungen in natürlicher Sprache abzufragen oder mit ihr zu interagieren. Select AI enthält bis zu 10 vorherige Prompts in die aktuelle Anforderung und erstellt einen erweiterten Prompt, der an das LLM gesendet wird. Siehe Unterhaltungen zur Verbesserung der Benutzerinteraktion aktivieren.

Datenbankzugangsdaten

Datenbankzugangsdaten sind Authentifizierungszugangsdaten für den Zugriff auf und die Interaktion mit Datenbanken. Sie bestehen in der Regel aus einem Benutzernamen und einem Kennwort, manchmal ergänzt durch zusätzliche Authentifizierungsfaktoren wie Sicherheitstoken. Mit diesen Zugangsdaten wird eine sichere Verbindung zwischen einer Anwendung oder einem Benutzer und einer Datenbank hergestellt, sodass nur autorisierte Personen oder Systeme auf die in der Datenbank gespeicherten Daten zugreifen und diese bearbeiten können.

Halluzination im LLM

Halluzination im Kontext von Large Language Models bezieht sich auf ein Phänomen, bei dem das Modell Text generiert, der falsch, unsinnig oder nicht mit der Eingabeaufforderung verknüpft ist. Obwohl diese Antworten auf den Versuch des Modells zurückzuführen sind, kohärenten Text zu generieren, können sie Informationen enthalten, die fabriziert, irreführend oder rein fantasievoll sind. Halluzinationen können aufgrund von Verzerrungen in Trainingsdaten, mangelndem Kontextverständnis oder Einschränkungen im Trainingsprozess des Modells auftreten.

IAM

Mit Oracle Cloud Infrastructure Identity and Access Management (IAM) können Sie den Zugriff auf Ihre Cloud-Ressourcen kontrollieren. Sie können den Zugriffstyp einer Benutzergruppe kontrollieren und festlegen, für welche spezifischen Ressourcen der Zugriff gilt. Weitere Informationen finden Sie unter Überblick über Identity and Access Management.

Großes Sprachmodell (LLM)

Ein Large Language Model (LLM) bezieht sich auf einen fortgeschrittenen Typ von künstlicher Intelligenz, der auf riesige Mengen an Textdaten trainiert wird, um je nach Trainingsdaten eine Reihe von Anwendungsfällen zu unterstützen. Dazu gehören das Verständnis und die Generierung menschenähnlicher Sprache sowie Softwarecode und Datenbankabfragen. Diese Modelle sind in der Lage, eine Vielzahl von Verarbeitungsaufgaben in natürlicher Sprache auszuführen, einschließlich Textgenerierung, Übersetzung, Zusammenfassung, Fragenbeantwortung, Sentimentanalyse und mehr. LLMs basieren in der Regel auf hochentwickelten neuronalen Deep Learning-Netzwerkmodellen, die Muster, Kontext und Semantik aus den Eingabedaten lernen und es ihnen ermöglichen, kohärenten und kontextbezogenen relevanten Text zu generieren.

Metadaten

Datenbankmetadaten beziehen sich auf die Daten, die Struktur, Organisation und Eigenschaften der Datenbanktabellen und Views beschreiben.

Metadatenklon

Ein Metadatenklon oder ein Autonomous Database-Klon erstellt eine Kopie einer Metadaten, die eine Datenbank oder ein Schema definieren, die nur die Struktur und nicht die tatsächlichen Daten enthält. Dieser Klon umfasst Tabellen, Indizes, Views, Statistiken, Prozeduren und Trigger ohne Datenzeilen. Entwickler, Tester oder diejenigen, die Datenbankvorlagen erstellen, finden dies nützlich. Weitere Informationen finden Sie unter Autonomous Database-Instanz klonen, verschieben oder upgraden.

Natural Language Prompts

Natural Language Prompts sind menschenlesbare Anweisungen oder Anforderungen, die zur Anleitung generativer KI-Modelle wie Large Language Models bereitgestellt werden. Anstatt bestimmte Programmiersprachen oder Befehle zu verwenden, können Benutzer mit diesen Modellen interagieren, indem sie Eingabeaufforderungen in einer dialogorientierteren oder natürlichen Sprachform eingeben. Die Modelle generieren dann die Ausgabe basierend auf dem angegebenen Prompt.

Network Access Control-Liste (ACL)

Eine Netzwerkzugriffssteuerungsliste ist eine Gruppe von Regeln oder Berechtigungen, die definieren, welcher Netzwerkverkehr durch ein Netzwerkgerät wie einen Router, eine Firewall oder ein Gateway geleitet werden darf. ACLs werden verwendet, um eingehenden und ausgehenden Datenverkehr basierend auf verschiedenen Kriterien wie IP-Adressen, Portnummern und Protokollen zu steuern und zu filtern. Sie spielen eine entscheidende Rolle bei der Netzwerksicherheit, indem sie es Administratoren ermöglichen, den Netzwerkverkehr zu verwalten und einzuschränken, um unbefugten Zugriff, potenzielle Angriffe und Datenschutzverletzungen zu verhindern.

Abruf der erweiterten Generation (RAG)

Retrieval Augmented Generation (RAG) ist eine Technik, die das Abrufen relevanter Informationen für die Abfrage eines Benutzers und das Bereitstellen dieser Informationen an ein großes Sprachmodell (LLM) umfasst, um die Antworten zu verbessern und die Halluzination zu reduzieren.

Am häufigsten umfasst RAG die Vektorsuche, im Allgemeinen jedoch die Erweiterung einer Eingabeaufforderung für Datenbankinhalt (manuell oder automatisch), wie Schemametadaten für die SQL-Generierung oder explizit abgefragten Datenbankinhalt. Andere Formen der Erweiterung können Technologien wie Diagrammanalysen und traditionelles maschinelles Lernen umfassen.

Suche nach semantischer Ähnlichkeit

Die semantische Ähnlichkeitssuche identifiziert und ruft Datenpunkte ab, die einer bestimmten Abfrage eng entsprechen, indem Featurevektoren in einem Vektorspeicher verglichen werden.

Vektorabstand

Der Vektorabstand misst die Ähnlichkeit oder Unähnlichkeit zwischen Featurevektoren, indem er den Abstand zwischen ihnen in einem mehrdimensionalen Raum berechnet.

Vektorindex

Ein Vektorindex organisiert und speichert Vektoren, um eine effiziente Ähnlichkeitssuche und das Abrufen verwandter Daten zu ermöglichen.

Vektor-Shop

Ein Vektorspeicher umfasst Systeme, die semantische Ähnlichkeitssuche mit Vektoreinbettungen speichern, verwalten und ermöglichen. Dazu gehören eigenständige Vektordatenbanken und die Oracle Database 23ai AI Vector Search.