KI-Konzepte auswählen
Erforscht die Konzepte und Begriffe im Zusammenhang mit Select AI.
- Aktionen
- KI-Profil
- KI-Provider
- Dialoge
- Datenbank-Zugangsdaten
- Halluzierung im LLM
- IAM
- Iterative Verfeinerung
- Large Language Model (LLM)
- MapReduce
- Metadaten
- Metadatenklon
- Prompts in natürlicher Sprache
- Netzwerk-Access-Control-Liste (ACL)
- Retrieval-Augmented Generation (RAG)
- Suche nach semantischer Ähnlichkeit
- Vektorabstand
- Vektorindex
- Vector Store
Übergeordnetes Thema: Select AI für Natural Language Interaction mit Ihrer Datenbank verwenden
Aktionen
Eine Aktion in Select AI ist ein Schlüsselwort, das Select AI anweist, bei der Eingabeaufforderung ein anderes Verhalten auszuführen. Durch Angabe einer Aktion können Benutzer Select AI anweisen, ihre Eingabeaufforderung in natürlicher Sprache zu verarbeiten, um SQL-Code zu generieren, auf eine Chat-Eingabeaufforderung zu reagieren, die Ausgabe zu erzählen, die SQL-Anweisung anzuzeigen oder den SQL-Code zu erläutern und die LLMs zu nutzen, um effizient mit den Daten in ihrer Datenbankumgebung zu interagieren.
Informationen zu unterstützten Select AI-Aktionen finden Sie unter AI-Schlüsselwort zum Eingeben von Prompts verwenden.
Übergeordnetes Thema: KI-Konzepte auswählen
KI-Profil
Übergeordnetes Thema: KI-Konzepte auswählen
KI-Provider
Ein KI-Provider in Select AI bezieht sich auf den Serviceprovider, der das LLM oder den Transformer oder beides zur Verarbeitung und Generierung von Antworten auf Eingabeaufforderungen in natürlicher Sprache bereitstellt. Diese Provider bieten Modelle an, die natürliche Sprache für die unter dem LLM-Konzept hervorgehobenen Anwendungsfälle interpretieren und konvertieren können. Informationen zu den unterstützten Providern finden Sie unter KI-Provider und LLMs auswählen.
Übergeordnetes Thema: KI-Konzepte auswählen
Unterhaltungen
Unterhaltungen in Select AI stellen einen interaktiven Austausch zwischen dem Benutzer und dem System dar, der es Benutzern ermöglicht, die Datenbank über eine Reihe von Eingabeaufforderungen in natürlicher Sprache abzufragen oder mit ihr zu interagieren. Select AI integriert bis zu 10 vorherige Prompts in die aktuelle Anforderung über sitzungsbasierte Unterhaltungen und erstellt einen erweiterten Prompt, der an das LLM gesendet wird. Select AI unterstützt mehrere anpassbare Unterhaltungen, die über Unterhaltungs-APIs aus dem DBMS_CLOUD_AI-Package konfiguriert werden können. Siehe KI-Unterhaltungen auswählen.
Übergeordnetes Thema: KI-Konzepte auswählen
Datenbankzugangsdaten
Übergeordnetes Thema: KI-Konzepte auswählen
Halluzination im LLM
Übergeordnetes Thema: KI-Konzepte auswählen
IAM
Übergeordnetes Thema: KI-Konzepte auswählen
Iterative Verfeinerung
Iterative Verfeinerung ist ein Prozess der schrittweisen Verbesserung einer Lösung oder eines Modells durch wiederholte Zyklen von Anpassungen basierend auf Feedback oder Bewertung. Es beginnt mit einer ersten Annäherung, verfeinert sie Schritt für Schritt und geht weiter, bis die gewünschte Genauigkeit oder das gewünschte Ergebnis erreicht ist. Jede Iteration baut auf der vorherigen auf und umfasst Korrekturen oder Optimierungen, um dem Ziel näher zu kommen.
Bei der Generierung von Textzusammenfassungen kann eine iterative Verfeinerung für die Verarbeitung großer Dateien oder Dokumente nützlich sein. Der Prozess teilt den Text in überschaubare Chunks auf, die beispielsweise in die Token-Limits eines LLM passen, generiert eine Zusammenfassung für einen Chunk und verbessert dann die Zusammenfassung, indem die folgenden Chunks sequentiell einbezogen werden.
Anwendungsfälle für die iterative Verfeinerung:
- Am besten geeignet für Situationen, in denen kontextbezogene Genauigkeit und Kohärenz entscheidend sind, z. B. bei der Zusammenfassung komplexer oder stark miteinander verbundener Texte, bei denen jeder Teil auf dem vorherigen basiert.
- Ideal für kleinere Aufgaben, bei denen die sequenzielle Verarbeitung akzeptabel ist.
Siehe Zusammenfassungstechniken.
Übergeordnetes Thema: KI-Konzepte auswählen
Großes Sprachmodell (LLM)
Ein Large Language Model (LLM) bezieht sich auf eine fortschrittliche Art von Modell für künstliche Intelligenz, das auf großen Mengen an Textdaten trainiert wird, um je nach Trainingsdaten eine Reihe von Anwendungsfällen zu unterstützen. Dazu gehören das Verständnis und die Generierung von menschenähnlicher Sprache sowie Softwarecode und Datenbankabfragen. Diese Modelle sind in der Lage, eine breite Palette von Natural Language Processing-Aufgaben auszuführen, einschließlich Textgenerierung, Übersetzung, Zusammenfassung, Beantwortung von Fragen, Sentimentanalyse und mehr. LLMs basieren in der Regel auf ausgeklügelten neuronalen Deep-Learning-Netzwerkmodellen, die Muster, Kontext und Semantik aus den Eingabedaten lernen, sodass sie kohärenten und kontextbezogenen Text generieren können.
Übergeordnetes Thema: KI-Konzepte auswählen
MapReduce
- Zuordnen: Verarbeitet Eingabedaten und wandelt sie in Schlüssel/Wert-Paare um.
- Reduce: Aggregiert und fasst die zugeordneten Daten basierend auf Schlüsseln zusammen. MapReduce führt eine parallele Verarbeitung großer Datasets durch.
Bei der Option "KI-Zusammenfassung auswählen" partitioniert MapReduce Text in mehrere Chunks und verarbeitet sie parallel und unabhängig. Dabei werden für jeden Chunk individuelle Zusammenfassungen generiert. Diese Zusammenfassungen werden dann zu einer zusammenhängenden Gesamtzusammenfassung zusammengefasst.
Anwendungsfälle für Map Reduction:
- Am besten geeignet für groß angelegte, parallele Aufgaben, bei denen Geschwindigkeit und Skalierbarkeit Priorität haben, z. B. die Zusammenfassung sehr großer Datensätze oder Dokumente.
- Ideal für Situationen, in denen Blockunabhängigkeit akzeptabel ist und die Zusammenfassungen später aggregiert werden können.
Siehe Zusammenfassungstechniken.
Übergeordnetes Thema: KI-Konzepte auswählen
Metadaten
Übergeordnetes Thema: KI-Konzepte auswählen
Metadatenklon
Übergeordnetes Thema: KI-Konzepte auswählen
Prompts in natürlicher Sprache
Übergeordnetes Thema: KI-Konzepte auswählen
Netzwerkzugriffssteuerungsliste (ACL)
Übergeordnetes Thema: KI-Konzepte auswählen
Retrieval Augmented Generation (RAG)
Am häufigsten handelt es sich bei der RAG um eine Vektorsuche, im Allgemeinen jedoch um die Erweiterung einer Eingabeaufforderung von Datenbankinhalten (manuell oder automatisch), wie z. B. Schemametadaten für die SQL-Generierung oder explizit abgefragter Datenbankinhalt. Andere Formen der Erweiterung können Technologien wie Diagrammanalyse und traditionelles maschinelles Lernen umfassen.
Übergeordnetes Thema: KI-Konzepte auswählen
Suche nach semantischer Ähnlichkeit
Übergeordnetes Thema: KI-Konzepte auswählen
Vektorabstand
Übergeordnetes Thema: KI-Konzepte auswählen
Vektorindex
Übergeordnetes Thema: KI-Konzepte auswählen
Vektoren
Übergeordnetes Thema: KI-Konzepte auswählen