Sélectionner des concepts d'IA

Explorer les concepts et les termes liés à Select AI.

Actions

Une action dans Select AI est un mot-clé qui indique à Select AI d'effectuer un comportement différent lors de l'action sur l'invite. En spécifiant une action, les utilisateurs peuvent demander à Select AI de traiter leur invite en langage naturel pour générer du code SQL, de répondre à une invite de discussion, de narrer la sortie, d'afficher l'instruction SQL ou d'expliquer le code SQL, en tirant parti des LLM pour interagir efficacement avec les données de leur environnement de base de données.

Reportez-vous à Utilisation du mot-clé AI pour saisir des invites pour connaître les actions Select AI prises en charge.

Agent d'IA

Modèle d'IA

Terme général englobant divers types de modèles d'intelligence artificielle, y compris les grands modèles de langage (LLM) et les transformateurs (également appelés modèles d'intégration), utilisés pour des tâches telles que la génération de texte, la traduction et la reconnaissance d'images. Un modèle d'IA est un programme, entraîné sur des données, qui détecte des modèles et prend des prédictions ou des décisions en fonction de nouvelles entrées. Dans le contexte d'Oracle, le modèle d'IA fait spécifiquement référence aux différents modèles de langage (LLM) et d'apprentissage automatique disponibles via les services d'Oracle. Pour plus d'informations, reportez-vous à Concepts pour l'IA générative.

Profil IA

Un profil AI est une spécification qui inclut le fournisseur AI à utiliser et d'autres détails concernant les métadonnées et les objets de base de données requis pour générer des réponses aux invites de langage naturel. Reportez-vous à Procédure CREATE_PROFILE et Attributs de profil.

Fournisseur d'intelligence artificielle

Un fournisseur d'IA dans Select AI fait référence au fournisseur de services qui fournit le LLM ou le transformateur, ou les deux, pour le traitement et la génération de réponses aux invites en langage naturel. Ces fournisseurs offrent des modèles qui peuvent interpréter et convertir le langage naturel pour les cas d'utilisation mis en évidence sous le concept LLM. Reportez-vous à Sélectionner votre fournisseur d'IA et vos LLM pour les fournisseurs pris en charge.

chatbot

Agent conversationnel alimenté par l'IA conçu pour interagir avec les utilisateurs en langage naturel, souvent utilisé pour le service client ou la récupération d'informations. Dans le contexte de Select AI, le chatbot Ask Oracle aide les utilisateurs à poser des questions en langage naturel et à recevoir des réponses générées par l'IA soutenues par leur base de données et leur contenu privé. Grâce à cette interface utilisateur, les utilisateurs peuvent :
  • Posez des questions en langage naturel et obtenez le code SQL généré automatiquement (NL2SQL).
  • Exécutez des requêtes sur des tables et des vues de base de données à l'aide de Select AI.
  • Utilisez la génération augmentée par extraction (RAG) pour inclure le contenu de document privé stocké dans la base de données d'IA autonome.
  • Interagissez avec les équipes d'agents que vous avez définies avec Select AI Agent.

Pour plus d'informations, reportez-vous à Demander à Oracle.

Lien cloud

Une liaison cloud établit une connectivité privée et sécurisée entre Oracle Cloud Infrastructure et des fournisseurs cloud externes ou des réseaux on-premise, ce qui facilite l'échange transparent des données. Dans Select AI, les liens cloud permettent à Autonomous AI Database d'intégrer des données externes dans les interactions NL2SQL sans exposition publique, ce qui permet aux utilisateurs d'interroger des environnements hybrides de manière conversationnelle tout en respectant les normes de sécurité d'Oracle, telles que le chiffrement et les contrôles d'accès, pour des analyses basées sur l'IA conformes. Pour plus de détails, reportez-vous à Utilisation de liens cloud pour l'accès aux données en lecture seule sur une base de données Autonomous AI.

Conversations

Les conversations dans Select AI représentent un échange interactif entre l'utilisateur et le système, permettant aux utilisateurs d'interroger ou d'interagir avec la base de données via une série d'invites en langage naturel. Select AI intègre des conversations à court terme basées sur les sessions afin de générer des réponses contextuelles pour l'invite actuelle en fonction des interactions précédentes. Jusqu'à 10 invites précédentes sont intégrées à la demande actuelle avec des conversations à court terme, créant ainsi une invite augmentée envoyée au LLM. Select AI prend en charge l'utilisation de conversations personnalisables à long terme vous permettant d'utiliser Select AI avec différents sujets sans mélange de contexte, qui peuvent être configurés via des API de conversation à partir du package DBMS_CLOUD_AI. Reportez-vous à Sélectionner des conversations AI.

Informations d'identification de la base de données

Les informations d'identification de base de données sont des informations d'identification d'authentification utilisées pour accéder aux bases de données et interagir avec elles. Ils consistent généralement en un nom d'utilisateur et un mot de passe, parfois complétés par des facteurs d'authentification supplémentaires tels que les jetons de sécurité. Ces informations d'identification sont utilisées pour établir une connexion sécurisée entre une application ou un utilisateur et une base de données, de sorte que seuls les individus ou systèmes autorisés peuvent accéder aux données stockées dans la base de données et les manipuler.

Lien de base de données

Un lien de base de données connecte une base de données Oracle à des bases de données distantes, ce qui permet un accès transparent aux données externes comme si elles étaient locales. Dans Select AI, les liens de base de données s'intègrent à Autonomous AI Database ou à Oracle AI Database sur site pour étendre les fonctionnalités NL2SQL aux sources fédérées, prenant en charge les requêtes en langage naturel qui s'étendent sur site ou dans d'autres environnements cloud en toute sécurité. Pour plus de détails, reportez-vous à CREATE DATABASE LINK et à Utilisation de liens de base de données avec une base de données Autonomous AI.

Modèle de plongement

Un modèle d'IA qui convertit les données d'entrée en incorporations vectorielles pour capturer les relations sémantiques, souvent utilisées dans des tâches telles que la compréhension du langage et la reconnaissance d'images. Select AI utilise des modèles d'intégration pour calculer les intégrations de vos documents, tables et texte de requête. Ces intégrations alimentent la recherche sémantique, les workflows RAG, la notation de similarité et le classement de pertinence dans Autonomous AI Database.

Hallucination en LLM

L'hallucination dans le contexte des grands modèles de langage fait référence à un phénomène où le modèle génère un texte incorrect, absurde ou sans rapport avec l'invite d'entrée. Bien qu'elles résultent de la tentative du modèle de générer un texte cohérent, ces réponses peuvent contenir des informations qui sont fabriquées, trompeuses ou purement imaginatives. L'hallucination peut survenir en raison de biais dans les données d'entraînement, d'un manque de compréhension du contexte ou de limites dans le processus d'entraînement du modèle.

IAM

Oracle Cloud Infrastructure Identity and Access Management (IAM) vous permet de contrôler qui a accès à vos ressources cloud. Vous pouvez contrôler le type d'accès affecté à un groupe d'utilisateurs et les ressources spécifiques auxquelles ces utilisateurs ont accès. Pour en savoir plus, reportez-vous à Présentation d'Identity and Access Management.

Affinement itératif

Le raffinement itératif est un processus d'amélioration progressive d'une solution ou d'un modèle à travers des cycles répétés d'ajustements basés sur la rétroaction ou l'évaluation. Il commence par une approximation initiale, le raffine étape par étape et continue jusqu'à ce que la précision ou le résultat souhaité soit atteint. Chaque itération s'appuie sur la précédente, en intégrant des corrections ou des optimisations pour se rapprocher de l'objectif.

Dans la génération d'une synthèse de texte, l'affinement itératif peut être utile pour le traitement de fichiers ou de documents volumineux. Le traitement divise le texte en blocs de taille gérable, par exemple, qui correspondent aux limites de jeton d'un LLM, génère un récapitulatif pour un bloc, puis améliore le récapitulatif en intégrant séquentiellement les blocs suivants.

Cas d'utilisation de l'affinement itératif :

  • Convient le mieux aux situations où la précision et la cohérence contextuelles sont essentielles, par exemple lors de la synthèse de textes complexes ou hautement interconnectés où chaque partie s'appuie sur la précédente.
  • Idéal pour les tâches à petite échelle où le traitement séquentiel est acceptable.

Reportez-vous à Techniques de synthèse.

grand modèle de langage (LLM, Large Language Model)

Un grand modèle de langage (LLM) fait référence à un type avancé de modèle d'intelligence artificielle qui est entraîné sur des quantités massives de données textuelles pour prendre en charge un éventail de cas d'utilisation en fonction de leurs données d'entraînement. Cela inclut la compréhension et la génération d'un langage semblable à l'humain, ainsi que de code logiciel et de requêtes de base de données. Ces modèles sont capables d'effectuer un large éventail de tâches de traitement du langage naturel, y compris la génération de texte, la traduction, la synthèse, la réponse aux questions, l'analyse des sentiments, etc. Les LLM sont généralement basés sur des modèles de réseau neuronal sophistiqués de deep learning qui apprennent des modèles, du contexte et de la sémantique à partir des données d'entrée, ce qui leur permet de générer un texte cohérent et pertinent en contexte.

MapReduce

En général, le modèle de programmation MapReduce permet de traiter des données volumineuses en divisant les tâches en deux phases : Map et Reduce.
  • Mettre en correspondance : traite les données d'entrée et les transforme en paires clé-valeur.
  • Réduire : agrège et récapitule les données mises en correspondance en fonction des clés. MapReduce effectue un traitement parallèle des ensembles de données volumineux.

Dans le cas de Select AI Summarize, MapReduce partitionne le texte en plusieurs blocs et les traite en parallèle et indépendamment, générant des récapitulatifs individuels pour chaque bloc. Ces résumés sont ensuite combinés pour former un résumé global cohérent.

Cas d'utilisation de la réduction de carte :

  • Idéal pour les tâches parallèles à grande échelle où la vitesse et l'évolutivité sont des priorités, telles que la synthèse d'ensembles de données ou de documents très volumineux.
  • Idéal pour les situations où l'indépendance du bloc est acceptable, et les résumés peuvent être agrégés plus tard.

Reportez-vous à Techniques de synthèse.

Métadonnées

Les métadonnées sont des données qui décrivent les données. Dans le cas de Select AI, les métadonnées sont des métadonnées de base de données, qui font référence aux données qui décrivent la structure, l'organisation et les propriétés des tables et des vues de base de données.

Pour les tables et les vues de base de données, les métadonnées incluent les noms et types de colonne, les contraintes et les clés, les définitions de vue, les relations, les indicateurs de lignage, de qualité et de fraîcheur, les classifications de sécurité et les stratégies d'accès. Des métadonnées bien gérées facilitent la découverte, l'utilisation correcte, le réglage des performances et la conformité. Sélectionnez les invites NL2SQL des segments AI avec des métadonnées de table qui incluent la définition de table (nom de table, noms de colonne et types de données) et éventuellement des commentaires, des annotations et des contraintes de table et de colonne.

Clone de métadonnées

Un clone de métadonnées ou un clone de base de données Autonomous AI crée une copie des métadonnées définissant la base de données ou le schéma, contenant uniquement la structure et non les données réelles. Ce clone inclut les tables, les index, les vues, les statistiques, les procédures et les déclencheurs sans ligne de données. Les développeurs, les testeurs ou ceux qui créent des modèles de base de données trouvent cela utile. Pour en savoir plus, reportez-vous à Clonage, déplacement ou mise à niveau d'une instance de base de données Autonomous AI.

Enrichissement des métadonnées

Augmenter les schémas de base de données avec des descriptions, des commentaires et des annotations de haute qualité afin qu'un LLM puisse mieux comprendre l'intention des tables et des colonnes, clarifier la signification métier et générer des instructions SQL plus précises. Elle transforme les noms de table ou de colonne nus en ressources bien documentées avec des intentions, des relations et des contraintes claires.

Informations sur le candidat à inclure :

  • Description des tables et des colonnes : fonction, définitions d'activité, unités et fourchettes de valeurs autorisées
  • Clés et relations : clés primaires/étrangères, chemins de jointure
  • Sémantique des données : granularité temporelle, modification lente des dimensions, règles de déduplication
  • Contraintes et qualité : nullité, unicité, règles de validation, actualité des données
  • Synonymes et alias : termes commerciaux communs qui correspondent à des noms techniques
  • Exemples et modèles : exemples de valeurs, filtres communs ou agrégations

Pour en savoir plus sur l'ajout de telles métadonnées à l'aide d'Oracle SQL Developer for VS Code via Visual Studio Code, reportez-vous à Présentation de l'enrichissement par l'IA.

Invite de langage naturel

Une invite en langage naturel se compose d'instructions, de questions ou d'instructions d'entrée exprimées en langage humain quotidien (tel que l'anglais) qui guident la réponse d'un LLM. Au lieu d'exiger du code ou une syntaxe spécialisée, les utilisateurs interagissent avec le LLM en saisissant des phrases ou des expressions qui décrivent leur intention, demandent des informations ou spécifient une tâche.

Par exemple :

  • "Quel est le chiffre d'affaires du dernier trimestre dans chaque région d'entreprise ?"
  • "Quelle est notre politique interne en matière de congé parental ?"
  • Résumé de cet article."
  • Écrivez un courriel à un client s'excusant d'un retard d'expédition.
  • Quelles sont les principales différences entre les bases de données SQL et NoSQL ?

Ces invites tirent parti de la compréhension du langage humain par le modèle pour générer des résultats utiles et pertinents sur le plan contextuel. Les invites en langage naturel sont essentielles à l'utilisabilité des LLM, ce qui rend les fonctionnalités d'IA avancées accessibles aux utilisateurs sans expertise technique.

Liste de contrôle d'accès réseau (ACL)

Une liste de contrôle d'accès réseau est un ensemble de règles ou d'autorisations qui définissent le trafic réseau autorisé à passer par un périphérique réseau, tel qu'un routeur, un pare-feu ou une passerelle. Les ACL sont utilisées pour contrôler et filtrer le trafic entrant et sortant en fonction de divers critères tels que les adresses IP, les numéros de port et les protocoles. Ils jouent un rôle crucial dans la sécurité du réseau en permettant aux administrateurs de gérer et de restreindre le trafic réseau pour empêcher les accès non autorisés, les attaques potentielles et les violations de données.

NL2SQL

Le langage naturel en langage SQL (NL2SQL) convertit les questions en langage naturel en instructions SQL à l'aide de l'IA générative.

Sélectionnez IA qui utilise activement NL2SQL pour interpréter les invites utilisateur et générer des instructions SQL correctes et exécutables par rapport à votre base de données d'IA autonome ou aux sources externes connectées. Cela permet aux utilisateurs professionnels de poser des questions telles que "Afficher le chiffre d'affaires du trimestre précédent par région" et de recevoir des requêtes et des résultats SQL précis sans expertise SQL.

ONNX

ONNX (Open Neural Network Exchange) est un format standard ouvert pour représenter les modèles de machine learning et de deep learning. ONNX standardise la représentation et l'échange des modèles de machine learning entre les structures, permettant un déploiement et une interopérabilité transparents. Pour plus d'informations, reportez-vous à ONNX.

Select AI peut utiliser des modèles d'IA générative exportés au format ONNX pour exécuter des charges de travail d'IA directement dans une base de données d'IA autonome ou via des exécutions prises en charge permettant aux entreprises d'exploiter des modèles préentraînés pour des tâches de traitement du langage naturel telles que la génération de requêtes. En utilisant des modèles ONNX, vous gardez l'inférence proche de vos données, réduisez le mouvement des données et activez un traitement de modèle cohérent dans différents outils et environnements, garantissant des opérations d'IA conformes.

Exécution ONNX

ONNX Runtime exécute efficacement des modèles au format ONNX sur les plates-formes matérielles, optimisant ainsi l'inférence pour les applications d'IA en temps réel.

Sélectionnez les utilisateurs d'IA qui peuvent spécifier des modèles au format ONNX dans la base de données dans leur profil AI pour la prise en charge de la RAG. La base de données intègre l'exécution ONNX dans Oracle AI Database 26ai et Autonomous AI Database. L'utilisation de l'exécution ONNX dans la base de données évite d'envoyer du contenu à un moteur externe pour produire, par exemple, des incorporations vectorielles. ONNX Runtime optimise l'évaluation d'exécution des modèles basés sur des transformateurs dans Autonomous AI Database, ce qui facilite le chargement des modèles ONNX, les conversions rapides du langage naturel vers SQL (NL2SQL), les intégrations de calcul, la classification des données ou l'inférence d'exécution dans le moteur de base de données sans envoyer de données à un service externe, ce qui améliore les performances des requêtes et la sécurité, la latence et la gouvernance. Pour plus de détails, reportez-vous à Exemple : sélection d'une IA avec des modèles de transformateur dans la base de données et à Exécution ONNX.

Adresse privée

Point de communication sécurisé et dédié qui permet un accès restreint à des services ou des ressources spécifiques. Une adresse privée établit une connexion sécurisée et dédiée qui limite l'accès à des services ou des ressources spécifiques, garantissant ainsi une communication isolée. Dans Select AI, les entreprises peuvent configurer des adresses privées dans Oracle Cloud Infrastructure (OCI) pour se connecter à des LLM hébergés privés tels qu'Ollama ou Llama.cpp sur des machines virtuelles, répondant ainsi aux besoins de sécurité en traitant les charges de travail d'IA dans Oracle Virtual Cloud Network. Cette configuration inclut un sous-réseau public avec un serveur de saut pour un accès contrôlé et un sous-réseau privé hébergeant la base de données d'IA autonome et les modèles d'IA, empêchant l'exposition à Internet et maintenant tous les composants conformes aux exigences d'isolement de l'entreprise. Pour plus d'informations, reportez-vous à Accès aux adresses privées pour sélectionner des modèles d'IA.

Génération augmentée de récupération (RAG).

La génération augmentée de récupération (RAG) est une technique qui consiste à récupérer des informations pertinentes pour la requête d'un utilisateur et à fournir ces informations à un grand modèle de langage (LLM) pour améliorer les réponses et réduire l'hallucination.

Le plus souvent, la RAG implique une recherche vectorielle, mais plus généralement, inclut l'augmentation d'une invite de contenu de base de données (manuelle ou automatique) tel que les métadonnées de schéma pour la génération SQL ou le contenu de base de données explicitement interrogé. D'autres formes d'augmentation peuvent impliquer des technologies telles que l'analyse de graphes et le machine learning traditionnel.

Recherche de similarité sémantique

La recherche de similarité sémantique identifie et extrait les points de données qui correspondent étroitement à une requête donnée en comparant les vecteurs de fonctionnalité dans une banque de vecteurs.

Sidecar

L'architecture sidecar permet à une base de données d'agir en tant que référentiel de métadonnées central pour les sources de données locales et distantes, c'est-à-dire Oracle et non Oracle. Select AI utilise cette architecture en exploitant les métadonnées pour créer une invite augmentée qui est envoyée au LLM choisi par l'utilisateur, qui génère ensuite une requête SQL fédérée. L'un des principaux avantages du sidecar est qu'il permet aux données de rester à leur emplacement d'origine, éliminant ainsi le besoin de duplication de données ou de processus ETL complexes.

Il prend en charge l'accès fédéré à divers systèmes externes tels que les bases de données BigQuery, Redshift, multicloud ou sur site en reliant ces sources à une base de données d'IA autonome en toute sécurité.

Seuil de similarité

Un seuil de similarité définit un score minimum pour classer deux éléments comme liés, en filtrant les résultats en fonction de leur proximité ou de leur distance vectorielle. Dans Select AI, le seuil de similarité permet de filtrer les résultats qui tombent en dessous d'un niveau de proximité sémantique requis, ce qui garantit que seuls les blocs de documents, les lignes ou les incorporations hautement liés sont renvoyés.

Génération de données synthétiques

Dans le contexte de Select AI, la génération de données synthétiques permet de générer automatiquement des données artificielles conformes à votre schéma de base de données, ce qui vous permet de remplir des tables pour des scénarios de développement, de test, d'entraînement ou de validation de concept sans utiliser de données sensibles ou de production. Sélectionnez AI fournit la fonction PL/SQL DBMS_CLOUD_AI.GENERATE_SYNTHETIC_DATA pour produire des ensembles de données synthétiques. Pour plus de détails, reportez-vous à Génération de données synthétiques.

Transformateur

Type d'architecture de modèle de deep learning couramment utilisé pour les tâches de traitement du langage naturel, telles que la génération de vecteurs d'intégration ou la génération et la traduction de texte. Dans Select AI, les LLM basés sur des transformateurs pilotent la conversion des requêtes utilisateur en requêtes SQL qui peuvent être exécutées dans votre base de données.

Vecteur

Dans le contexte de la recherche de similarité sémantique, un vecteur est une représentation mathématique qui capture la signification sémantique des points de données, tels que des mots, des documents ou des images, dans un espace multidimensionnel.

Dans le contexte de Select AI, les vecteurs prennent en charge la génération augmentée par extraction en capturant la signification du contenu textuel pour permettre une extraction sémantique rapide à partir de la base de données.

Vector Database

Une base de données qui stocke les incorporations vectorielles, qui sont des représentations mathématiques des points de données utilisés dans les applications d'IA pour prendre en charge une recherche de similarité sémantique efficace. Oracle Autonomous AI Database et Oracle AI Database servent de base de données vectorielle avec des index vectoriels optimisés.

Dans Select AI, le composant de base de données vectorielle (alimenté par Oracle AI Vector Search) indexe les intégrations générées à partir des données d'entreprise. Cela permet aux requêtes en langage naturel d'extraire des résultats sémantiques similaires, d'améliorer la pertinence pour les workflows de recherche et de RAG alimentés par l'IA et de fournir une intégration transparente aux environnements Oracle Cloud.

Distance vectorielle

La distance vectorielle mesure la similitude ou la dissimilarité entre les vecteurs caractéristiques en calculant la distance entre eux dans un espace multidimensionnel.

Index vectoriel

Un index vectoriel organise et stocke des vecteurs pour permettre une recherche et une extraction de similarité efficaces des données associées.

Magasin de vecteurs

Un magasin de vecteurs comprend des systèmes qui stockent, gèrent et activent la recherche de similarité sémantique impliquant des incorporations de vecteurs. Cela inclut des bases de données vectorielles autonomes et Oracle AI Database 26ai AI Vector Search.