Sélectionner des concepts d'IA
Explorer les concepts et les termes liés à Select AI.
- Actions
- Agent d'IA
- Modèle d'IA
- Profil AI
- Fournisseur d'intelligence artificielle
- Groupe de discussion
- Lien cloud
- Conversations
- Informations d'identification de la base de données
- Lien de base de données
- Modèle de plongement
- Hallucination dans le LLM
- IAM
- Amélioration itérative
- Large Language Model (LLM)
- MapReduce
- Métadonnées
- Clone de métadonnées
- Enrichissement des métadonnées
- Invite en langage naturel
- Network Access Control List (ACL, Liste de contrôle d'accès réseau)
- NL2SQL
- ONNX
- Exécution ONNX
- Adresse privée
- RAG (Retrieval Augmented Generation, génération augmentée de récupération)
- Recherche de similarité sémantique
- Sidecar
- Seuil de similarité
- Génération de données synthétiques
- Transformateur
- Vecteur
- Vector Database
- Distance vectorielle
- Index vectoriel
- Magasin de vecteurs
Actions
Une action dans Select AI est un mot-clé qui indique à Select AI d'effectuer un comportement différent lors de l'action sur l'invite. En spécifiant une action, les utilisateurs peuvent demander à Select AI de traiter leur invite en langage naturel pour générer du code SQL, de répondre à une invite de discussion, de narrer la sortie, d'afficher l'instruction SQL ou d'expliquer le code SQL, en tirant parti des LLM pour interagir efficacement avec les données de leur environnement de base de données.
Reportez-vous à Utilisation du mot-clé AI pour saisir des invites pour connaître les actions Select AI prises en charge.
Rubrique parent : Sélectionner des concepts AI
Agent d'IA
Rubrique parent : Sélectionner des concepts AI
Modèle d'IA
Terme général englobant divers types de modèles d'intelligence artificielle, y compris les grands modèles de langage (LLM) et les transformateurs (également appelés modèles d'intégration), utilisés pour des tâches telles que la génération de texte, la traduction et la reconnaissance d'images. Un modèle d'IA est un programme, entraîné sur des données, qui détecte des modèles et prend des prédictions ou des décisions en fonction de nouvelles entrées. Dans le contexte d'Oracle, le modèle d'IA fait spécifiquement référence aux différents modèles de langage (LLM) et d'apprentissage automatique disponibles via les services d'Oracle. Pour plus d'informations, reportez-vous à Concepts pour l'IA générative.
Rubrique parent : Sélectionner des concepts AI
Profil IA
Rubrique parent : Sélectionner des concepts AI
Fournisseur d'intelligence artificielle
Un fournisseur d'IA dans Select AI fait référence au fournisseur de services qui fournit le LLM ou le transformateur, ou les deux, pour le traitement et la génération de réponses aux invites en langage naturel. Ces fournisseurs offrent des modèles qui peuvent interpréter et convertir le langage naturel pour les cas d'utilisation mis en évidence sous le concept LLM. Reportez-vous à Sélectionner votre fournisseur d'IA et vos LLM pour les fournisseurs pris en charge.
Rubrique parent : Sélectionner des concepts AI
chatbot
- Posez des questions en langage naturel et obtenez le code SQL généré automatiquement (NL2SQL).
- Exécutez des requêtes sur des tables et des vues de base de données à l'aide de Select AI.
- Utilisez la génération augmentée par extraction (RAG) pour inclure le contenu de document privé stocké dans la base de données d'IA autonome.
- Interagissez avec les équipes d'agents que vous avez définies avec Select AI Agent.
Pour plus d'informations, reportez-vous à Demander à Oracle.
Rubrique parent : Sélectionner des concepts AI
Lien cloud
Une liaison cloud établit une connectivité privée et sécurisée entre Oracle Cloud Infrastructure et des fournisseurs cloud externes ou des réseaux on-premise, ce qui facilite l'échange transparent des données. Dans Select AI, les liens cloud permettent à Autonomous AI Database d'intégrer des données externes dans les interactions NL2SQL sans exposition publique, ce qui permet aux utilisateurs d'interroger des environnements hybrides de manière conversationnelle tout en respectant les normes de sécurité d'Oracle, telles que le chiffrement et les contrôles d'accès, pour des analyses basées sur l'IA conformes. Pour plus de détails, reportez-vous à Utilisation de liens cloud pour l'accès aux données en lecture seule sur une base de données Autonomous AI.
Rubrique parent : Sélectionner des concepts AI
Conversations
Les conversations dans Select AI représentent un échange interactif entre l'utilisateur et le système, permettant aux utilisateurs d'interroger ou d'interagir avec la base de données via une série d'invites en langage naturel. Select AI intègre des conversations à court terme basées sur les sessions afin de générer des réponses contextuelles pour l'invite actuelle en fonction des interactions précédentes. Jusqu'à 10 invites précédentes sont intégrées à la demande actuelle avec des conversations à court terme, créant ainsi une invite augmentée envoyée au LLM. Select AI prend en charge l'utilisation de conversations personnalisables à long terme vous permettant d'utiliser Select AI avec différents sujets sans mélange de contexte, qui peuvent être configurés via des API de conversation à partir du package DBMS_CLOUD_AI. Reportez-vous à Sélectionner des conversations AI.
Rubrique parent : Sélectionner des concepts AI
Informations d'identification de la base de données
Rubrique parent : Sélectionner des concepts AI
Lien de base de données
Un lien de base de données connecte une base de données Oracle à des bases de données distantes, ce qui permet un accès transparent aux données externes comme si elles étaient locales. Dans Select AI, les liens de base de données s'intègrent à Autonomous AI Database ou à Oracle AI Database sur site pour étendre les fonctionnalités NL2SQL aux sources fédérées, prenant en charge les requêtes en langage naturel qui s'étendent sur site ou dans d'autres environnements cloud en toute sécurité. Pour plus de détails, reportez-vous à CREATE DATABASE LINK et à Utilisation de liens de base de données avec une base de données Autonomous AI.
Rubrique parent : Sélectionner des concepts AI
Modèle de plongement
Un modèle d'IA qui convertit les données d'entrée en incorporations vectorielles pour capturer les relations sémantiques, souvent utilisées dans des tâches telles que la compréhension du langage et la reconnaissance d'images. Select AI utilise des modèles d'intégration pour calculer les intégrations de vos documents, tables et texte de requête. Ces intégrations alimentent la recherche sémantique, les workflows RAG, la notation de similarité et le classement de pertinence dans Autonomous AI Database.
Rubrique parent : Sélectionner des concepts AI
Hallucination en LLM
Rubrique parent : Sélectionner des concepts AI
IAM
Rubrique parent : Sélectionner des concepts AI
Affinement itératif
Le raffinement itératif est un processus d'amélioration progressive d'une solution ou d'un modèle à travers des cycles répétés d'ajustements basés sur la rétroaction ou l'évaluation. Il commence par une approximation initiale, le raffine étape par étape et continue jusqu'à ce que la précision ou le résultat souhaité soit atteint. Chaque itération s'appuie sur la précédente, en intégrant des corrections ou des optimisations pour se rapprocher de l'objectif.
Dans la génération d'une synthèse de texte, l'affinement itératif peut être utile pour le traitement de fichiers ou de documents volumineux. Le traitement divise le texte en blocs de taille gérable, par exemple, qui correspondent aux limites de jeton d'un LLM, génère un récapitulatif pour un bloc, puis améliore le récapitulatif en intégrant séquentiellement les blocs suivants.
Cas d'utilisation de l'affinement itératif :
- Convient le mieux aux situations où la précision et la cohérence contextuelles sont essentielles, par exemple lors de la synthèse de textes complexes ou hautement interconnectés où chaque partie s'appuie sur la précédente.
- Idéal pour les tâches à petite échelle où le traitement séquentiel est acceptable.
Reportez-vous à Techniques de synthèse.
Rubrique parent : Sélectionner des concepts AI
grand modèle de langage (LLM, Large Language Model)
Un grand modèle de langage (LLM) fait référence à un type avancé de modèle d'intelligence artificielle qui est entraîné sur des quantités massives de données textuelles pour prendre en charge un éventail de cas d'utilisation en fonction de leurs données d'entraînement. Cela inclut la compréhension et la génération d'un langage semblable à l'humain, ainsi que de code logiciel et de requêtes de base de données. Ces modèles sont capables d'effectuer un large éventail de tâches de traitement du langage naturel, y compris la génération de texte, la traduction, la synthèse, la réponse aux questions, l'analyse des sentiments, etc. Les LLM sont généralement basés sur des modèles de réseau neuronal sophistiqués de deep learning qui apprennent des modèles, du contexte et de la sémantique à partir des données d'entrée, ce qui leur permet de générer un texte cohérent et pertinent en contexte.
Rubrique parent : Sélectionner des concepts AI
MapReduce
- Mettre en correspondance : traite les données d'entrée et les transforme en paires clé-valeur.
- Réduire : agrège et récapitule les données mises en correspondance en fonction des clés. MapReduce effectue un traitement parallèle des ensembles de données volumineux.
Dans le cas de Select AI Summarize, MapReduce partitionne le texte en plusieurs blocs et les traite en parallèle et indépendamment, générant des récapitulatifs individuels pour chaque bloc. Ces résumés sont ensuite combinés pour former un résumé global cohérent.
Cas d'utilisation de la réduction de carte :
- Idéal pour les tâches parallèles à grande échelle où la vitesse et l'évolutivité sont des priorités, telles que la synthèse d'ensembles de données ou de documents très volumineux.
- Idéal pour les situations où l'indépendance du bloc est acceptable, et les résumés peuvent être agrégés plus tard.
Reportez-vous à Techniques de synthèse.
Rubrique parent : Sélectionner des concepts AI
Métadonnées
Les métadonnées sont des données qui décrivent les données. Dans le cas de Select AI, les métadonnées sont des métadonnées de base de données, qui font référence aux données qui décrivent la structure, l'organisation et les propriétés des tables et des vues de base de données.
Pour les tables et les vues de base de données, les métadonnées incluent les noms et types de colonne, les contraintes et les clés, les définitions de vue, les relations, les indicateurs de lignage, de qualité et de fraîcheur, les classifications de sécurité et les stratégies d'accès. Des métadonnées bien gérées facilitent la découverte, l'utilisation correcte, le réglage des performances et la conformité. Sélectionnez les invites NL2SQL des segments AI avec des métadonnées de table qui incluent la définition de table (nom de table, noms de colonne et types de données) et éventuellement des commentaires, des annotations et des contraintes de table et de colonne.
Rubrique parent : Sélectionner des concepts AI
Clone de métadonnées
Rubrique parent : Sélectionner des concepts AI
Enrichissement des métadonnées
Informations sur le candidat à inclure :
- Description des tables et des colonnes : fonction, définitions d'activité, unités et fourchettes de valeurs autorisées
- Clés et relations : clés primaires/étrangères, chemins de jointure
- Sémantique des données : granularité temporelle, modification lente des dimensions, règles de déduplication
- Contraintes et qualité : nullité, unicité, règles de validation, actualité des données
- Synonymes et alias : termes commerciaux communs qui correspondent à des noms techniques
- Exemples et modèles : exemples de valeurs, filtres communs ou agrégations
Pour en savoir plus sur l'ajout de telles métadonnées à l'aide d'Oracle SQL Developer for VS Code via Visual Studio Code, reportez-vous à Présentation de l'enrichissement par l'IA.
Rubrique parent : Sélectionner des concepts AI
Invite de langage naturel
Une invite en langage naturel se compose d'instructions, de questions ou d'instructions d'entrée exprimées en langage humain quotidien (tel que l'anglais) qui guident la réponse d'un LLM. Au lieu d'exiger du code ou une syntaxe spécialisée, les utilisateurs interagissent avec le LLM en saisissant des phrases ou des expressions qui décrivent leur intention, demandent des informations ou spécifient une tâche.
Par exemple :
- "Quel est le chiffre d'affaires du dernier trimestre dans chaque région d'entreprise ?"
- "Quelle est notre politique interne en matière de congé parental ?"
- Résumé de cet article."
- Écrivez un courriel à un client s'excusant d'un retard d'expédition.
- Quelles sont les principales différences entre les bases de données SQL et NoSQL ?
Ces invites tirent parti de la compréhension du langage humain par le modèle pour générer des résultats utiles et pertinents sur le plan contextuel. Les invites en langage naturel sont essentielles à l'utilisabilité des LLM, ce qui rend les fonctionnalités d'IA avancées accessibles aux utilisateurs sans expertise technique.
Rubrique parent : Sélectionner des concepts AI
Liste de contrôle d'accès réseau (ACL)
Rubrique parent : Sélectionner des concepts AI
NL2SQL
Le langage naturel en langage SQL (NL2SQL) convertit les questions en langage naturel en instructions SQL à l'aide de l'IA générative.
Sélectionnez IA qui utilise activement NL2SQL pour interpréter les invites utilisateur et générer des instructions SQL correctes et exécutables par rapport à votre base de données d'IA autonome ou aux sources externes connectées. Cela permet aux utilisateurs professionnels de poser des questions telles que "Afficher le chiffre d'affaires du trimestre précédent par région" et de recevoir des requêtes et des résultats SQL précis sans expertise SQL.
Rubrique parent : Sélectionner des concepts AI
ONNX
ONNX (Open Neural Network Exchange) est un format standard ouvert pour représenter les modèles de machine learning et de deep learning. ONNX standardise la représentation et l'échange des modèles de machine learning entre les structures, permettant un déploiement et une interopérabilité transparents. Pour plus d'informations, reportez-vous à ONNX.
Select AI peut utiliser des modèles d'IA générative exportés au format ONNX pour exécuter des charges de travail d'IA directement dans une base de données d'IA autonome ou via des exécutions prises en charge permettant aux entreprises d'exploiter des modèles préentraînés pour des tâches de traitement du langage naturel telles que la génération de requêtes. En utilisant des modèles ONNX, vous gardez l'inférence proche de vos données, réduisez le mouvement des données et activez un traitement de modèle cohérent dans différents outils et environnements, garantissant des opérations d'IA conformes.
Rubrique parent : Sélectionner des concepts AI
Exécution ONNX
ONNX Runtime exécute efficacement des modèles au format ONNX sur les plates-formes matérielles, optimisant ainsi l'inférence pour les applications d'IA en temps réel.
Sélectionnez les utilisateurs d'IA qui peuvent spécifier des modèles au format ONNX dans la base de données dans leur profil AI pour la prise en charge de la RAG. La base de données intègre l'exécution ONNX dans Oracle AI Database 26ai et Autonomous AI Database. L'utilisation de l'exécution ONNX dans la base de données évite d'envoyer du contenu à un moteur externe pour produire, par exemple, des incorporations vectorielles. ONNX Runtime optimise l'évaluation d'exécution des modèles basés sur des transformateurs dans Autonomous AI Database, ce qui facilite le chargement des modèles ONNX, les conversions rapides du langage naturel vers SQL (NL2SQL), les intégrations de calcul, la classification des données ou l'inférence d'exécution dans le moteur de base de données sans envoyer de données à un service externe, ce qui améliore les performances des requêtes et la sécurité, la latence et la gouvernance. Pour plus de détails, reportez-vous à Exemple : sélection d'une IA avec des modèles de transformateur dans la base de données et à Exécution ONNX.
Rubrique parent : Sélectionner des concepts AI
Adresse privée
Point de communication sécurisé et dédié qui permet un accès restreint à des services ou des ressources spécifiques. Une adresse privée établit une connexion sécurisée et dédiée qui limite l'accès à des services ou des ressources spécifiques, garantissant ainsi une communication isolée. Dans Select AI, les entreprises peuvent configurer des adresses privées dans Oracle Cloud Infrastructure (OCI) pour se connecter à des LLM hébergés privés tels qu'Ollama ou Llama.cpp sur des machines virtuelles, répondant ainsi aux besoins de sécurité en traitant les charges de travail d'IA dans Oracle Virtual Cloud Network. Cette configuration inclut un sous-réseau public avec un serveur de saut pour un accès contrôlé et un sous-réseau privé hébergeant la base de données d'IA autonome et les modèles d'IA, empêchant l'exposition à Internet et maintenant tous les composants conformes aux exigences d'isolement de l'entreprise. Pour plus d'informations, reportez-vous à Accès aux adresses privées pour sélectionner des modèles d'IA.
Rubrique parent : Sélectionner des concepts AI
Génération augmentée de récupération (RAG).
Le plus souvent, la RAG implique une recherche vectorielle, mais plus généralement, inclut l'augmentation d'une invite de contenu de base de données (manuelle ou automatique) tel que les métadonnées de schéma pour la génération SQL ou le contenu de base de données explicitement interrogé. D'autres formes d'augmentation peuvent impliquer des technologies telles que l'analyse de graphes et le machine learning traditionnel.
Rubrique parent : Sélectionner des concepts AI
Recherche de similarité sémantique
Rubrique parent : Sélectionner des concepts AI
Sidecar
L'architecture sidecar permet à une base de données d'agir en tant que référentiel de métadonnées central pour les sources de données locales et distantes, c'est-à-dire Oracle et non Oracle. Select AI utilise cette architecture en exploitant les métadonnées pour créer une invite augmentée qui est envoyée au LLM choisi par l'utilisateur, qui génère ensuite une requête SQL fédérée. L'un des principaux avantages du sidecar est qu'il permet aux données de rester à leur emplacement d'origine, éliminant ainsi le besoin de duplication de données ou de processus ETL complexes.
Il prend en charge l'accès fédéré à divers systèmes externes tels que les bases de données BigQuery, Redshift, multicloud ou sur site en reliant ces sources à une base de données d'IA autonome en toute sécurité.
Rubrique parent : Sélectionner des concepts AI
Seuil de similarité
Un seuil de similarité définit un score minimum pour classer deux éléments comme liés, en filtrant les résultats en fonction de leur proximité ou de leur distance vectorielle. Dans Select AI, le seuil de similarité permet de filtrer les résultats qui tombent en dessous d'un niveau de proximité sémantique requis, ce qui garantit que seuls les blocs de documents, les lignes ou les incorporations hautement liés sont renvoyés.
Rubrique parent : Sélectionner des concepts AI
Génération de données synthétiques
Dans le contexte de Select AI, la génération de données synthétiques permet de générer automatiquement des données artificielles conformes à votre schéma de base de données, ce qui vous permet de remplir des tables pour des scénarios de développement, de test, d'entraînement ou de validation de concept sans utiliser de données sensibles ou de production. Sélectionnez AI fournit la fonction PL/SQL DBMS_CLOUD_AI.GENERATE_SYNTHETIC_DATA pour produire des ensembles de données synthétiques. Pour plus de détails, reportez-vous à Génération de données synthétiques.
Rubrique parent : Sélectionner des concepts AI
Transformateur
Type d'architecture de modèle de deep learning couramment utilisé pour les tâches de traitement du langage naturel, telles que la génération de vecteurs d'intégration ou la génération et la traduction de texte. Dans Select AI, les LLM basés sur des transformateurs pilotent la conversion des requêtes utilisateur en requêtes SQL qui peuvent être exécutées dans votre base de données.
Rubrique parent : Sélectionner des concepts AI
Vecteur
Dans le contexte de la recherche de similarité sémantique, un vecteur est une représentation mathématique qui capture la signification sémantique des points de données, tels que des mots, des documents ou des images, dans un espace multidimensionnel.
Dans le contexte de Select AI, les vecteurs prennent en charge la génération augmentée par extraction en capturant la signification du contenu textuel pour permettre une extraction sémantique rapide à partir de la base de données.
Rubrique parent : Sélectionner des concepts AI
Vector Database
Une base de données qui stocke les incorporations vectorielles, qui sont des représentations mathématiques des points de données utilisés dans les applications d'IA pour prendre en charge une recherche de similarité sémantique efficace. Oracle Autonomous AI Database et Oracle AI Database servent de base de données vectorielle avec des index vectoriels optimisés.
Dans Select AI, le composant de base de données vectorielle (alimenté par Oracle AI Vector Search) indexe les intégrations générées à partir des données d'entreprise. Cela permet aux requêtes en langage naturel d'extraire des résultats sémantiques similaires, d'améliorer la pertinence pour les workflows de recherche et de RAG alimentés par l'IA et de fournir une intégration transparente aux environnements Oracle Cloud.
Rubrique parent : Sélectionner des concepts AI
Distance vectorielle
Rubrique parent : Sélectionner des concepts AI
Index vectoriel
Rubrique parent : Sélectionner des concepts AI
Magasin de vecteurs
Rubrique parent : Sélectionner des concepts AI