KI-Konzepte auswählen

Erforscht die Konzepte und Begriffe im Zusammenhang mit Select AI.

Aktionen

Eine Aktion in Select AI ist ein Schlüsselwort, das Select AI anweist, bei der Eingabeaufforderung ein anderes Verhalten auszuführen. Durch Angabe einer Aktion können Benutzer Select AI anweisen, ihre Eingabeaufforderung in natürlicher Sprache zu verarbeiten, um SQL-Code zu generieren, auf eine Chat-Eingabeaufforderung zu reagieren, die Ausgabe zu erzählen, die SQL-Anweisung anzuzeigen oder den SQL-Code zu erläutern und die LLMs zu nutzen, um effizient mit den Daten in ihrer Datenbankumgebung zu interagieren.

Informationen zu unterstützten Select AI-Aktionen finden Sie unter AI-Schlüsselwort zum Eingeben von Prompts verwenden.

KI-Profil

Ein KI-Profil ist eine Spezifikation, die den zu verwendenden KI-Provider und andere Details zu Metadaten und Datenbankobjekten umfasst, die zum Generieren von Antworten auf Eingabeaufforderungen in natürlicher Sprache erforderlich sind. Siehe Prozedur CREATE_PROFILE und Profilattribute.

KI-Provider

Ein KI-Provider in Select AI bezieht sich auf den Serviceprovider, der das LLM oder den Transformer oder beides zur Verarbeitung und Generierung von Antworten auf Eingabeaufforderungen in natürlicher Sprache bereitstellt. Diese Provider bieten Modelle an, die natürliche Sprache für die unter dem LLM-Konzept hervorgehobenen Anwendungsfälle interpretieren und konvertieren können. Informationen zu den unterstützten Providern finden Sie unter KI-Provider und LLMs auswählen.

Unterhaltungen

Unterhaltungen in Select AI stellen einen interaktiven Austausch zwischen dem Benutzer und dem System dar, der es Benutzern ermöglicht, die Datenbank über eine Reihe von Eingabeaufforderungen in natürlicher Sprache abzufragen oder mit ihr zu interagieren. Select AI integriert bis zu 10 vorherige Prompts in die aktuelle Anforderung über sitzungsbasierte Unterhaltungen und erstellt einen erweiterten Prompt, der an das LLM gesendet wird. Select AI unterstützt mehrere anpassbare Unterhaltungen, die über Unterhaltungs-APIs aus dem DBMS_CLOUD_AI-Package konfiguriert werden können. Siehe KI-Unterhaltungen auswählen.

Datenbankzugangsdaten

Datenbankzugangsdaten sind Authentifizierungszugangsdaten, die für den Zugriff auf und die Interaktion mit Datenbanken verwendet werden. Sie bestehen in der Regel aus einem Benutzernamen und einem Passwort, manchmal ergänzt durch zusätzliche Authentifizierungsfaktoren wie Sicherheitstoken. Diese Zugangsdaten werden verwendet, um eine sichere Verbindung zwischen einer Anwendung oder einem Benutzer und einer Datenbank herzustellen, sodass nur autorisierte Personen oder Systeme auf die in der Datenbank gespeicherten Daten zugreifen und diese bearbeiten können.

Halluzination im LLM

Halluzination im Kontext von Large Language Models bezieht sich auf ein Phänomen, bei dem das Modell Text generiert, der falsch, unsinnig oder nicht mit der Eingabeaufforderung verbunden ist. Obwohl diese Antworten auf den Versuch des Modells zurückzuführen sind, kohärenten Text zu generieren, können sie Informationen enthalten, die fabriziert, irreführend oder rein phantasievoll sind. Halluzination kann aufgrund von Verzerrungen in Trainingsdaten, fehlendem Kontextverständnis oder Einschränkungen im Trainingsprozess des Modells auftreten.

IAM

Mit Oracle Cloud Infrastructure Identity and Access Management (IAM) können Sie den Zugriff auf Ihre Cloud-Ressourcen kontrollieren. Sie können den Zugriffstyp einer Benutzergruppe kontrollieren und festlegen, für welche spezifischen Ressourcen der Zugriff gilt. Weitere Informationen finden Sie unter Überblick über Identity and Access Management.

Iterative Verfeinerung

Iterative Verfeinerung ist ein Prozess der schrittweisen Verbesserung einer Lösung oder eines Modells durch wiederholte Zyklen von Anpassungen basierend auf Feedback oder Bewertung. Es beginnt mit einer ersten Annäherung, verfeinert sie Schritt für Schritt und geht weiter, bis die gewünschte Genauigkeit oder das gewünschte Ergebnis erreicht ist. Jede Iteration baut auf der vorherigen auf und umfasst Korrekturen oder Optimierungen, um dem Ziel näher zu kommen.

Bei der Generierung von Textzusammenfassungen kann eine iterative Verfeinerung für die Verarbeitung großer Dateien oder Dokumente nützlich sein. Der Prozess teilt den Text in überschaubare Chunks auf, die beispielsweise in die Token-Limits eines LLM passen, generiert eine Zusammenfassung für einen Chunk und verbessert dann die Zusammenfassung, indem die folgenden Chunks sequentiell einbezogen werden.

Anwendungsfälle für die iterative Verfeinerung:

  • Am besten geeignet für Situationen, in denen kontextbezogene Genauigkeit und Kohärenz entscheidend sind, z. B. bei der Zusammenfassung komplexer oder stark miteinander verbundener Texte, bei denen jeder Teil auf dem vorherigen basiert.
  • Ideal für kleinere Aufgaben, bei denen die sequenzielle Verarbeitung akzeptabel ist.

Siehe Zusammenfassungstechniken.

Großes Sprachmodell (LLM)

Ein Large Language Model (LLM) bezieht sich auf eine fortschrittliche Art von Modell für künstliche Intelligenz, das auf großen Mengen an Textdaten trainiert wird, um je nach Trainingsdaten eine Reihe von Anwendungsfällen zu unterstützen. Dazu gehören das Verständnis und die Generierung von menschenähnlicher Sprache sowie Softwarecode und Datenbankabfragen. Diese Modelle sind in der Lage, eine breite Palette von Natural Language Processing-Aufgaben auszuführen, einschließlich Textgenerierung, Übersetzung, Zusammenfassung, Beantwortung von Fragen, Sentimentanalyse und mehr. LLMs basieren in der Regel auf ausgeklügelten neuronalen Deep-Learning-Netzwerkmodellen, die Muster, Kontext und Semantik aus den Eingabedaten lernen, sodass sie kohärenten und kontextbezogenen Text generieren können.

MapReduce

Im Allgemeinen ermöglicht das Programmiermodell MapReduce die Verarbeitung großer Datenmengen, indem Aufgaben in zwei Phasen unterteilt werden: Map und Reduce.
  • Zuordnen: Verarbeitet Eingabedaten und wandelt sie in Schlüssel/Wert-Paare um.
  • Reduce: Aggregiert und fasst die zugeordneten Daten basierend auf Schlüsseln zusammen. MapReduce führt eine parallele Verarbeitung großer Datasets durch.

Bei der Option "KI-Zusammenfassung auswählen" partitioniert MapReduce Text in mehrere Chunks und verarbeitet sie parallel und unabhängig. Dabei werden für jeden Chunk individuelle Zusammenfassungen generiert. Diese Zusammenfassungen werden dann zu einer zusammenhängenden Gesamtzusammenfassung zusammengefasst.

Anwendungsfälle für Map Reduction:

  • Am besten geeignet für groß angelegte, parallele Aufgaben, bei denen Geschwindigkeit und Skalierbarkeit Priorität haben, z. B. die Zusammenfassung sehr großer Datensätze oder Dokumente.
  • Ideal für Situationen, in denen Blockunabhängigkeit akzeptabel ist und die Zusammenfassungen später aggregiert werden können.

Siehe Zusammenfassungstechniken.

Metadaten

Datenbankmetadaten beziehen sich auf die Daten, die Struktur, Organisation und Eigenschaften der Datenbanktabellen und -ansichten beschreiben.

Metadatenklon

Ein Metadatenklon oder ein Klon einer autonomen KI-Datenbank erstellt eine Kopie einer die Datenbank oder das Schema definierenden Metadaten, die nur die Struktur und nicht die tatsächlichen Daten enthält. Dieser Klon umfasst Tabellen, Indizes, Views, Statistiken, Prozeduren und Trigger ohne Datenzeilen. Entwickler, Tester oder diejenigen, die Datenbankvorlagen erstellen, finden dies hilfreich. Weitere Informationen finden Sie unter Autonome KI-Datenbankinstanz klonen, verschieben oder upgraden.

Prompts in natürlicher Sprache

Natural Language Prompts sind menschenlesbare Anweisungen oder Anforderungen, die zur Anleitung generativer KI-Modelle wie Large Language Models bereitgestellt werden. Anstatt bestimmte Programmiersprachen oder Befehle zu verwenden, können Benutzer mit diesen Modellen interagieren, indem sie Eingabeaufforderungen in einer konversationelleren oder natürlicheren Sprachform eingeben. Die Modelle generieren dann die Ausgabe basierend auf dem angegebenen Prompt.

Netzwerkzugriffssteuerungsliste (ACL)

Eine Network Access Control-Liste ist eine Gruppe von Regeln oder Berechtigungen, die definieren, welcher Netzwerkverkehr durch ein Netzwerkgerät wie einen Router, eine Firewall oder ein Gateway geleitet werden darf. ACLs werden verwendet, um eingehenden und abgehenden Datenverkehr basierend auf verschiedenen Kriterien wie IP-Adressen, Portnummern und Protokollen zu steuern und zu filtern. Sie spielen eine entscheidende Rolle bei der Netzwerksicherheit, da Administratoren den Netzwerkverkehr verwalten und einschränken können, um unbefugten Zugriff, potenzielle Angriffe und Datenverletzungen zu verhindern.

Retrieval Augmented Generation (RAG)

Retrieval Augmented Generation (RAG) ist eine Technik, bei der relevante Informationen für die Abfrage eines Benutzers abgerufen und an ein großes Sprachmodell (LLM) geliefert werden, um die Antworten zu verbessern und die Halluzination zu reduzieren.

Am häufigsten handelt es sich bei der RAG um eine Vektorsuche, im Allgemeinen jedoch um die Erweiterung einer Eingabeaufforderung von Datenbankinhalten (manuell oder automatisch), wie z. B. Schemametadaten für die SQL-Generierung oder explizit abgefragter Datenbankinhalt. Andere Formen der Erweiterung können Technologien wie Diagrammanalyse und traditionelles maschinelles Lernen umfassen.

Suche nach semantischer Ähnlichkeit

Bei der semantischen Ähnlichkeitssuche werden Datenpunkte identifiziert und abgerufen, die einer bestimmten Abfrage entsprechen, indem Featurevektoren in einem Vektorspeicher verglichen werden.

Vektorabstand

Vektorabstand misst die Ähnlichkeit oder Unähnlichkeit zwischen Merkmalvektoren, indem der Abstand zwischen ihnen in einem mehrdimensionalen Raum berechnet wird.

Vektorindex

Ein Vektorindex organisiert und speichert Vektoren, um eine effiziente Ähnlichkeitssuche und -abfrage verwandter Daten zu ermöglichen.

Vektoren

Ein Vektorspeicher umfasst Systeme, die semantische Ähnlichkeitssuche mit Vektoreinbettungen speichern, verwalten und ermöglichen. Dazu gehören Standalone-Vektordatenbanken und Oracle AI Database 26ai AI Vector Search.