KI-Konzepte auswählen

Erforscht die Konzepte und Begriffe im Zusammenhang mit Select AI.

Aktionen

Eine Aktion in Select AI ist ein Schlüsselwort, das Select AI anweist, bei der Eingabeaufforderung ein anderes Verhalten auszuführen. Durch Angabe einer Aktion können Benutzer Select AI anweisen, ihre Eingabeaufforderung in natürlicher Sprache zu verarbeiten, um SQL-Code zu generieren, auf eine Chat-Eingabeaufforderung zu reagieren, die Ausgabe zu erzählen, die SQL-Anweisung anzuzeigen oder den SQL-Code zu erläutern und die LLMs zu nutzen, um effizient mit den Daten in ihrer Datenbankumgebung zu interagieren.

Informationen zu unterstützten Select AI-Aktionen finden Sie unter AI-Schlüsselwort zum Eingeben von Prompts verwenden.

KI-Agent

KI-Modell

Ein allgemeiner Begriff, der verschiedene Arten von Modellen für künstliche Intelligenz umfasst, einschließlich großer Sprachmodelle (LLMs) und Transformatoren (auch als Einbettungsmodelle bezeichnet), die für Aufgaben wie Texterstellung, Übersetzung und Bilderkennung verwendet werden. Ein KI-Modell ist ein auf Daten trainiertes Programm, das Muster erkennt und basierend auf neuen Eingaben Vorhersagen oder Entscheidungen trifft. Im Kontext von Oracle bezieht sich das KI-Modell speziell auf die verschiedenen maschinellen Lernens und großen Sprachmodelle (LLMs), die über die Services von Oracle verfügbar sind. Weitere Informationen finden Sie unter Konzepte für generative KI.

KI-Profil

Ein KI-Profil ist eine Spezifikation, die den zu verwendenden KI-Provider und andere Details zu Metadaten und Datenbankobjekten umfasst, die zum Generieren von Antworten auf Eingabeaufforderungen in natürlicher Sprache erforderlich sind. Siehe Prozedur CREATE_PROFILE und Profilattribute.

KI-Provider

Ein KI-Provider in Select AI bezieht sich auf den Serviceprovider, der das LLM oder den Transformer oder beides zur Verarbeitung und Generierung von Antworten auf Eingabeaufforderungen in natürlicher Sprache bereitstellt. Diese Provider bieten Modelle an, die natürliche Sprache für die unter dem LLM-Konzept hervorgehobenen Anwendungsfälle interpretieren und konvertieren können. Informationen zu den unterstützten Providern finden Sie unter KI-Provider und LLMs auswählen.

Chatbot

Ein KI-gestützter Konversationsagent, der für die Interaktion mit Benutzern in natürlicher Sprache entwickelt wurde und häufig für den Kundenservice oder den Informationsabruf verwendet wird. Im Kontext von Select AI unterstützt der Ask Oracle-Chatbot Benutzer dabei, Fragen in natürlicher Sprache zu stellen und KI-generierte Antworten zu erhalten, die von ihrer Datenbank und ihrem privaten Inhalt unterstützt werden. Über diese Benutzeroberfläche können Benutzer:
  • Stellen Sie Fragen in natürlicher Sprache, und erhalten Sie automatisch SQL (NL2SQL).
  • Führen Sie mit Select AI Abfragen für Datenbanktabellen und Views aus.
  • Verwenden Sie Retrieval-Augmented Generation (RAG), um privaten Dokumentinhalt einzuschließen, der in einer autonomen KI-Datenbank gespeichert ist.
  • Interaktion mit Agent-Teams, die Sie mit Select AI Agent definiert haben.

Weitere Informationen finden Sie unter Oracle fragen.

Cloud-Link

Eine Cloud-Verbindung stellt eine sichere, private Konnektivität zwischen Oracle Cloud Infrastructure und externen Cloud-Providern oder On-Premise-Netzwerken her und erleichtert den nahtlosen Datenaustausch. In Select AI ermöglichen Cloud-Links, dass Autonomous AI Database externe Daten ohne öffentliche Präsenz in NL2SQL-Interaktionen einbindet. So können Benutzer hybride Umgebungen dialogorientiert abfragen und gleichzeitig die Sicherheitsstandards von Oracle wie Verschlüsselung und Zugriffskontrollen für konforme KI-gesteuerte Analysen einhalten. Weitere Informationen finden Sie unter Cloud-Links für schreibgeschützten Datenzugriff auf einer autonomen KI-Datenbank verwenden.

Unterhaltungen

Unterhaltungen in Select AI stellen einen interaktiven Austausch zwischen dem Benutzer und dem System dar, der es Benutzern ermöglicht, die Datenbank über eine Reihe von Eingabeaufforderungen in natürlicher Sprache abzufragen oder mit ihr zu interagieren. Select AI integriert sessionbasierte kurzfristige Unterhaltungen, um kontextbezogene Antworten für den aktuellen Prompt basierend auf früheren Interaktionen zu generieren. Bis zu 10 vorherige Prompts werden mit kurzfristigen Unterhaltungen in die aktuelle Anforderung integriert, wodurch ein erweiterter Prompt erstellt wird, der an das LLM gesendet wird. Select AI unterstützt die Verwendung anpassbarer langfristiger Unterhaltungen, mit denen Sie Select AI mit verschiedenen Themen verwenden können, ohne Kontext zu mischen. Diese können über Unterhaltungs-APIs aus dem DBMS_CLOUD_AI-Package konfiguriert werden. Siehe KI-Unterhaltungen auswählen.

Datenbankzugangsdaten

Datenbankzugangsdaten sind Authentifizierungszugangsdaten, die für den Zugriff auf und die Interaktion mit Datenbanken verwendet werden. Sie bestehen in der Regel aus einem Benutzernamen und einem Passwort, manchmal ergänzt durch zusätzliche Authentifizierungsfaktoren wie Sicherheitstoken. Diese Zugangsdaten werden verwendet, um eine sichere Verbindung zwischen einer Anwendung oder einem Benutzer und einer Datenbank herzustellen, sodass nur autorisierte Personen oder Systeme auf die in der Datenbank gespeicherten Daten zugreifen und diese bearbeiten können.

Datenbank-Link

Ein Datenbanklink verbindet eine Oracle-Datenbank mit Remote-Datenbanken und ermöglicht einen transparenten Zugriff auf externe Daten, als wären sie lokal. Bei Select AI lassen sich Datenbanklinks in Autonomous AI Database oder On-Premises Oracle AI Database integrieren, um NL2SQL-Funktionen auf föderierte Quellen zu erweitern und Abfragen in natürlicher Sprache zu unterstützen, die sich sicher über On-Premises- oder andere Cloud-Umgebungen erstrecken. Weitere Informationen finden Sie unter CREATE DATABASE LINK und Datenbanklinks mit autonomer KI-Datenbank verwenden.

Einbettungsmodell

Ein KI-Modell, das Eingabedaten in Vektoreinbettungen konvertiert, um semantische Beziehungen zu erfassen, die häufig in Aufgaben wie Sprachverständnis und Bilderkennung verwendet werden. Select AI verwendet Einbettungsmodelle, um Einbettungen für Ihre Dokumente, Tabellen und Abfragetext zu berechnen. Diese Einbettungen unterstützen semantische Suche, RAG-Workflows, Ähnlichkeitsbewertung und Relevanzeinstufung in der autonomen KI-Datenbank.

Halluzination im LLM

Halluzination im Kontext von Large Language Models bezieht sich auf ein Phänomen, bei dem das Modell Text generiert, der falsch, unsinnig oder nicht mit der Eingabeaufforderung verbunden ist. Obwohl diese Antworten auf den Versuch des Modells zurückzuführen sind, kohärenten Text zu generieren, können sie Informationen enthalten, die fabriziert, irreführend oder rein phantasievoll sind. Halluzination kann aufgrund von Verzerrungen in Trainingsdaten, fehlendem Kontextverständnis oder Einschränkungen im Trainingsprozess des Modells auftreten.

IAM

Mit Oracle Cloud Infrastructure Identity and Access Management (IAM) können Sie den Zugriff auf Ihre Cloud-Ressourcen kontrollieren. Sie können den Zugriffstyp einer Benutzergruppe kontrollieren und festlegen, für welche spezifischen Ressourcen der Zugriff gilt. Weitere Informationen finden Sie unter Überblick über Identity and Access Management.

Iterative Verfeinerung

Iterative Verfeinerung ist ein Prozess der schrittweisen Verbesserung einer Lösung oder eines Modells durch wiederholte Zyklen von Anpassungen basierend auf Feedback oder Bewertung. Es beginnt mit einer ersten Annäherung, verfeinert sie Schritt für Schritt und geht weiter, bis die gewünschte Genauigkeit oder das gewünschte Ergebnis erreicht ist. Jede Iteration baut auf der vorherigen auf und umfasst Korrekturen oder Optimierungen, um dem Ziel näher zu kommen.

Bei der Generierung von Textzusammenfassungen kann eine iterative Verfeinerung für die Verarbeitung großer Dateien oder Dokumente nützlich sein. Der Prozess teilt den Text in überschaubare Chunks auf, die beispielsweise in die Token-Limits eines LLM passen, generiert eine Zusammenfassung für einen Chunk und verbessert dann die Zusammenfassung, indem die folgenden Chunks sequentiell einbezogen werden.

Anwendungsfälle für die iterative Verfeinerung:

  • Am besten geeignet für Situationen, in denen kontextbezogene Genauigkeit und Kohärenz entscheidend sind, z. B. bei der Zusammenfassung komplexer oder stark miteinander verbundener Texte, bei denen jeder Teil auf dem vorherigen basiert.
  • Ideal für kleinere Aufgaben, bei denen die sequenzielle Verarbeitung akzeptabel ist.

Siehe Zusammenfassungstechniken.

Großes Sprachmodell (LLM)

Ein Large Language Model (LLM) bezieht sich auf eine fortschrittliche Art von Modell für künstliche Intelligenz, das auf großen Mengen an Textdaten trainiert wird, um je nach Trainingsdaten eine Reihe von Anwendungsfällen zu unterstützen. Dazu gehören das Verständnis und die Generierung von menschenähnlicher Sprache sowie Softwarecode und Datenbankabfragen. Diese Modelle sind in der Lage, eine breite Palette von Natural Language Processing-Aufgaben auszuführen, einschließlich Textgenerierung, Übersetzung, Zusammenfassung, Beantwortung von Fragen, Sentimentanalyse und mehr. LLMs basieren in der Regel auf ausgeklügelten neuronalen Deep-Learning-Netzwerkmodellen, die Muster, Kontext und Semantik aus den Eingabedaten lernen, sodass sie kohärenten und kontextbezogenen Text generieren können.

MapReduce

Im Allgemeinen ermöglicht das Programmiermodell MapReduce die Verarbeitung großer Datenmengen, indem Aufgaben in zwei Phasen unterteilt werden: Map und Reduce.
  • Zuordnen: Verarbeitet Eingabedaten und wandelt sie in Schlüssel/Wert-Paare um.
  • Reduce: Aggregiert und fasst die zugeordneten Daten basierend auf Schlüsseln zusammen. MapReduce führt eine parallele Verarbeitung großer Datasets durch.

Bei der Option "KI-Zusammenfassung auswählen" partitioniert MapReduce Text in mehrere Chunks und verarbeitet sie parallel und unabhängig. Dabei werden für jeden Chunk individuelle Zusammenfassungen generiert. Diese Zusammenfassungen werden dann zu einer zusammenhängenden Gesamtzusammenfassung zusammengefasst.

Anwendungsfälle für Map Reduction:

  • Am besten geeignet für groß angelegte, parallele Aufgaben, bei denen Geschwindigkeit und Skalierbarkeit Priorität haben, z. B. die Zusammenfassung sehr großer Datensätze oder Dokumente.
  • Ideal für Situationen, in denen Blockunabhängigkeit akzeptabel ist und die Zusammenfassungen später aggregiert werden können.

Siehe Zusammenfassungstechniken.

Metadaten

Metadaten sind Daten, die Daten beschreiben. Bei Select AI sind Metadaten Datenbankmetadaten, die sich auf die Daten beziehen, die Struktur, Organisation und Eigenschaften der Datenbanktabellen und -ansichten beschreiben.

Bei Datenbanktabellen und -ansichten umfassen Metadaten Spaltennamen und -typen, Constraints und Schlüssel, Ansichtsdefinitionen, Beziehungen, Herkunfts-, Qualitäts- und Frischeindikatoren, Sicherheitsklassifizierungen und Zugriffs-Policys. Gut verwaltete Metadaten ermöglichen Erkennbarkeit, korrekte Nutzung, Performanceoptimierung und Compliance. Wählen Sie "AI erweitert NL2SQL-Prompts" mit Tabellenmetadaten, die die Tabellendefinition (Tabellenname, Spaltennamen und deren Datentypen) und optional Tabellen- und Spaltenkommentare, Anmerkungen und Constraints enthalten.

Metadatenklon

Ein Metadatenklon oder ein Klon einer autonomen KI-Datenbank erstellt eine Kopie einer die Datenbank oder das Schema definierenden Metadaten, die nur die Struktur und nicht die tatsächlichen Daten enthält. Dieser Klon umfasst Tabellen, Indizes, Views, Statistiken, Prozeduren und Trigger ohne Datenzeilen. Entwickler, Tester oder diejenigen, die Datenbankvorlagen erstellen, finden dies hilfreich. Weitere Informationen finden Sie unter Autonome KI-Datenbankinstanz klonen, verschieben oder upgraden.

Metadatenanreicherung

Die Praxis, Datenbankschemas mit hochwertigen Beschreibungen, Kommentaren und Anmerkungen zu erweitern, damit ein LLM die Absicht für Tabellen und Spalten besser verstehen, die geschäftliche Bedeutung klären und genauere SQL generieren kann. Es verwandelt bloße Tabellen- oder Spaltennamen in gut dokumentierte Assets mit klaren Absichten, Beziehungen und Einschränkungen.

Zu berücksichtigende Kandidateninformationen:

  • Tabellen- und Spaltenbeschreibungen: Zweck, Geschäftsdefinitionen, Einheiten und zulässige Wertebereiche
  • Schlüssel und Beziehungen: Primär-/Fremdschlüssel, Join-Pfade
  • Datensemantik: Zeitgranularität, sich langsam ändernde Dimensionen, Deduplizierungsregeln
  • Einschränkungen und Qualität: Nullbarkeit, Eindeutigkeit, Validierungsregeln, Datenaktualität
  • Synonyme und Aliasnamen: allgemeine Geschäftsbegriffe, die technischen Namen zugeordnet sind
  • Beispiele und Muster: Beispielwerte, allgemeine Filter oder Aggregationen

Weitere Informationen zum Hinzufügen solcher Metadaten mit Oracle SQL Developer for VS Code über Visual Studio Code finden Sie unter Überblick über AI Enrichment.

Prompt für natürliche Sprache

Eine Eingabeaufforderung in natürlicher Sprache besteht aus Anweisungen, Fragen oder Eingabeaussagen, die in der alltäglichen menschlichen Sprache (wie Englisch) ausgedrückt werden und die Antwort eines LLM leiten. Anstatt Code oder spezielle Syntax zu benötigen, interagieren Benutzer mit dem LLM, indem sie Sätze oder Phrasen eingeben, die ihr Intent beschreiben, nach Informationen fragen oder eine Aufgabe angeben.

Beispiel:

  • "Wie hoch ist der Umsatz im letzten Quartal in jeder Unternehmensregion?"
  • "Was ist unsere interne Unternehmenspolitik für Elternurlaub?"
  • "Fassen Sie diesen Artikel zusammen."
  • "Schreiben Sie eine E-Mail an einen Kunden, der sich für eine verspätete Sendung entschuldigt."
  • "Was sind die wichtigsten Unterschiede zwischen SQL- und NoSQL-Datenbanken?"

Diese Prompts nutzen das Verständnis des Modells für die menschliche Sprache, um nützliche, kontextbezogene Ausgaben zu generieren. Eingabeaufforderungen in natürlicher Sprache sind für die LLM-Benutzerfreundlichkeit von zentraler Bedeutung, sodass fortgeschrittene KI-Funktionen ohne technisches Fachwissen für Benutzer zugänglich sind.

Netzwerkzugriffssteuerungsliste (ACL)

Eine Network Access Control-Liste ist eine Gruppe von Regeln oder Berechtigungen, die definieren, welcher Netzwerkverkehr durch ein Netzwerkgerät wie einen Router, eine Firewall oder ein Gateway geleitet werden darf. ACLs werden verwendet, um eingehenden und abgehenden Datenverkehr basierend auf verschiedenen Kriterien wie IP-Adressen, Portnummern und Protokollen zu steuern und zu filtern. Sie spielen eine entscheidende Rolle bei der Netzwerksicherheit, da Administratoren den Netzwerkverkehr verwalten und einschränken können, um unbefugten Zugriff, potenzielle Angriffe und Datenverletzungen zu verhindern.

NL2SQL

Natural Language in SQL (NL2SQL) konvertiert Fragen in natürlicher Sprache mit generativer KI in SQL-Anweisungen.

Select AI verwendet aktiv NL2SQL, um Benutzer-Prompts zu interpretieren und korrektes, ausführbares SQL für Ihre autonome KI-Datenbank oder verbundene externe Quellen zu generieren. Auf diese Weise können Geschäftsanwender Fragen wie "Umsatz des letzten Quartals nach Region anzeigen" stellen und genaue SQL-Abfragen und -Ergebnisse ohne SQL-Kenntnisse erhalten.

ONNX

ONNX (Open Neural Network Exchange) ist ein offenes Standardformat zur Darstellung von Modellen für maschinelles Lernen und Deep-Learning. ONNX standardisiert die Darstellung und den Austausch von Modellen für maschinelles Lernen über Frameworks hinweg und ermöglicht eine nahtlose Bereitstellung und Interoperabilität. Weitere Informationen finden Sie unter ONNX.

Select AI kann generative KI-Modelle verwenden, die im ONNX-Format exportiert werden, um KI-Workloads direkt in der autonomen KI-Datenbank oder über unterstützte Laufzeiten auszuführen. So können Unternehmen vortrainierte Modelle für Verarbeitungsaufgaben in natürlicher Sprache wie die Abfragegenerierung nutzen. Durch die Verwendung von ONNX-Modellen halten Sie Inferenz nahe an Ihren Daten, reduzieren die Datenverschiebung und ermöglichen eine konsistente Modellverarbeitung über verschiedene Tools und Umgebungen hinweg, um konforme KI-Vorgänge sicherzustellen.

ONNX-Laufzeit

ONNX Runtime führt ONNX-formatierte Modelle effizient auf allen Hardwareplattformen aus und optimiert die Inferenz für KI-Anwendungen in Echtzeit.

Ausgewählte KI-Benutzer können datenbankinterne ONNX-Formatmodelle in ihrem KI-Profil zur Unterstützung von RAG angeben. Die Datenbank bettet die ONNX Runtime in Oracle AI Database 26ai und Autonomous AI Database ein. Die Verwendung der datenbankinternen ONNX Runtime verhindert das Senden von Inhalten an eine externe Engine, um beispielsweise Vektoreinbettungen zu erstellen. ONNX Runtime unterstützt die Laufzeitbewertung von Transformer-basierten Modellen innerhalb der Autonomous AI Database und erleichtert Entwicklern das Laden von ONNX-Modellen, schnelle Konvertierungen in natürlicher Sprache in SQL (NL2SQL), Compute-Einbettungen, die Klassifizierung von Daten oder die Ausführung von Inferenzen innerhalb der Datenbank-Engine, ohne Daten an einen externen Service zu senden. Dies verbessert die Abfrageperformance und verbessert die Sicherheit, Latenz und Governance. Weitere Informationen finden Sie unter Beispiel: AI mit datenbankinternen Transformatormodellen auswählen und ONNX Runtime.

Privater Endpunkt

Ein sicherer und dedizierter Kommunikationspunkt, der den eingeschränkten Zugriff auf bestimmte Services oder Ressourcen ermöglicht. Ein privater Endpunkt stellt eine sichere, dedizierte Verbindung her, die den Zugriff auf bestimmte Services oder Ressourcen einschränkt und eine isolierte Kommunikation gewährleistet. In Select AI können Unternehmen private Endpunkte in Oracle Cloud Infrastructure (OCI) konfigurieren, um eine Verbindung zu privat gehosteten LLMs wie Ollama oder Llama.cpp auf virtuellen Maschinen (VMs) herzustellen und die Sicherheitsanforderungen zu erfüllen, indem KI-Workloads im Oracle Virtual Cloud Network verarbeitet werden. Dieses Setup umfasst ein öffentliches Subnetz mit einem Sprungserver für kontrollierten Zugriff und ein privates Subnetz mit den autonomen KI-Datenbank- und KI-Modellen, das die Internetpräsenz verhindert und alle Komponenten den Isolationsanforderungen des Unternehmens entspricht. Weitere Informationen finden Sie unter Privater Endpunktzugriff für ausgewählte KI-Modelle.

Retrieval Augmented Generation (RAG)

Retrieval Augmented Generation (RAG) ist eine Technik, bei der relevante Informationen für die Abfrage eines Benutzers abgerufen und an ein großes Sprachmodell (LLM) geliefert werden, um die Antworten zu verbessern und die Halluzination zu reduzieren.

Am häufigsten handelt es sich bei der RAG um eine Vektorsuche, im Allgemeinen jedoch um die Erweiterung einer Eingabeaufforderung von Datenbankinhalten (manuell oder automatisch), wie z. B. Schemametadaten für die SQL-Generierung oder explizit abgefragter Datenbankinhalt. Andere Formen der Erweiterung können Technologien wie Diagrammanalyse und traditionelles maschinelles Lernen umfassen.

Suche nach semantischer Ähnlichkeit

Bei der semantischen Ähnlichkeitssuche werden Datenpunkte identifiziert und abgerufen, die einer bestimmten Abfrage entsprechen, indem Featurevektoren in einem Vektorspeicher verglichen werden.

Beiwagen

Die Sidecar-Architektur ermöglicht es einer Datenbank, als zentrales Metadaten-Repository für lokale und Remote-Datenquellen zu fungieren, d.h. Oracle und Nicht-Oracle. Select AI nutzt diese Architektur, indem es die Metadaten nutzt, um einen erweiterten Prompt zu erstellen, der an das vom Benutzer ausgewählte LLM gesendet wird und dann eine föderierte SQL-Abfrage generiert. Ein wesentlicher Vorteil des Seitenwagens besteht darin, dass er es ermöglicht, dass die Daten an ihrem ursprünglichen Standort bleiben, sodass keine Datenduplizierung oder komplexe ETL-Prozesse erforderlich sind.

Sie unterstützt den föderierten Zugriff auf verschiedene externe Systeme wie BigQuery, Redshift, Multi-Cloud- oder On-Premises-Datenbanken, indem sie diese Quellen sicher mit einer autonomen KI-Datenbank verbindet.

Ähnlichkeitsschwellenwert

Ein Ähnlichkeitsschwellenwert legt einen Mindestscore fest, um zwei Elemente als zugehörige Filterergebnisse basierend auf ihrer Vektornähe oder -entfernung zu klassifizieren. Mit dem Ähnlichkeitsschwellenwert in Select AI können Sie Ergebnisse filtern, die unter die erforderliche Ebene der semantischen Nähe fallen. So wird sichergestellt, dass nur hoch verwandte Dokument-Chunks, Zeilen oder Einbettungen zurückgegeben werden.

Synthetische Datengenerierung

Im Kontext von Select AI ist die synthetische Datengenerierung die Möglichkeit, automatisch künstliche Daten zu generieren, die Ihrem Datenbankschema entsprechen. So können Sie Tabellen für Entwicklungs-, Test-, Schulungs- oder Proof-of-Concept-Szenarios auffüllen, ohne sensible oder Produktionsdaten zu verwenden. Select AI stellt die PL/SQL-Funktion DBMS_CLOUD_AI.GENERATE_SYNTHETIC_DATA bereit, um synthetische Datasets zu erstellen. Weitere Informationen finden Sie unter Synthetische Datengenerierung.

Transformer

Eine Art von Deep Learning-Modellarchitektur, die häufig für Verarbeitungsaufgaben in natürlicher Sprache verwendet wird, wie Generierung und Übersetzung von Vektoreinbettungen oder Textgenerierung. In Select AI steuern transformatorbasierte LLMs die Konvertierung von Benutzerabfragen in SQL-Abfragen, die in Ihrer Datenbank ausgeführt werden können.

Vektor

Im Kontext der semantischen Ähnlichkeitssuche ist ein Vektor eine mathematische Darstellung, welche die semantische Bedeutung von Datenpunkten, wie Wörtern, Dokumenten oder Bildern, in einem mehrdimensionalen Raum erfasst.

Im Kontext von Select AI unterstützen Vektoren die Retrieval Augmented Generation, indem sie die Bedeutung von Textinhalt erfassen, um einen schnellen semantischen Abruf aus der Datenbank zu ermöglichen.

Vektordatenbank

Eine Datenbank, in der Vektoreinbettungen gespeichert werden, die mathematische Darstellungen von Datenpunkten sind, die in KI-Anwendungen verwendet werden, um eine effiziente semantische Ähnlichkeitssuche zu unterstützen. Oracle Autonomous AI Database und Oracle AI Database dienen als Vektordatenbank mit optimierten Vektorindizes.

In Select AI indiziert die Vektordatenbankkomponente (unterstützt durch Oracle AI Vector Search) Einbettungen, die aus Unternehmensdaten generiert werden. Dadurch können Abfragen in natürlicher Sprache semantisch ähnliche Ergebnisse abrufen, die Relevanz für KI-gestützte Such- und RAG-Workflows verbessern und eine nahtlose Integration in Oracle Cloud-Umgebungen ermöglichen.

Vektorabstand

Vektorabstand misst die Ähnlichkeit oder Unähnlichkeit zwischen Merkmalvektoren, indem der Abstand zwischen ihnen in einem mehrdimensionalen Raum berechnet wird.

Vektorindex

Ein Vektorindex organisiert und speichert Vektoren, um eine effiziente Ähnlichkeitssuche und -abfrage verwandter Daten zu ermöglichen.

Vektoren

Ein Vektorspeicher umfasst Systeme, die semantische Ähnlichkeitssuche mit Vektoreinbettungen speichern, verwalten und ermöglichen. Dazu gehören Standalone-Vektordatenbanken und Oracle AI Database 26ai AI Vector Search.