Sélectionner des concepts d'intelligence artificielle

Examine les concepts et les termes liés à Select AI.

Actions

Une action dans Select AI est un mot clé qui indique à Select AI d'effectuer un comportement différent lors de l'action sur l'invite. En spécifiant une action, les utilisateurs peuvent demander à Select AI de traiter leur invite en langage naturel pour générer du code SQL, répondre à une invite de clavardage, narrer la sortie, afficher l'énoncé SQL ou expliquer le code SQL, en tirant parti des LLM pour interagir efficacement avec les données dans leur environnement de base de données.

Voir Utiliser le mot clé IA pour entrer des invites pour les actions Sélectionner l'IA prises en charge.

Modèle d'intelligence artificielle

Terme général englobant divers types de modèles d'intelligence artificielle, y compris les grands modèles de langage (LLM) et les transformateurs (également appelés modèles d'intégration), utilisés pour des tâches telles que la génération de texte, la traduction et la reconnaissance d'images. Un modèle d'IA est un programme, entraîné sur des données, qui détecte les modèles et prend des prédictions ou des décisions en fonction de nouvelles entrées. Dans le contexte d'Oracle, le modèle d'IA fait spécifiquement référence aux divers modèles d'apprentissage automatique et de grands modèles de langage (LLM) disponibles par l'intermédiaire des services d'Oracle. Pour plus d'informations, voir Concepts relatifs à l'IA générative.

Profil d'intelligence artificielle

Un profil d'IA est une spécification qui inclut le fournisseur d'IA à utiliser et d'autres détails concernant les métadonnées et les objets de base de données requis pour générer des réponses aux invites en langage naturel. Voir Procédure CREATE_PROFILE et Attributs de profil.

Fournisseur d'intelligence artificielle

Un fournisseur d'IA dans Select AI fait référence au fournisseur de services qui fournit le LLM ou le transformateur, ou les deux, pour le traitement et la génération de réponses aux invites de langage naturel. Ces fournisseurs offrent des modèles qui peuvent interpréter et convertir le langage naturel pour les cas d'utilisation mis en évidence sous le concept LLM. Voir Sélectionner votre fournisseur d'IA et vos LLM pour les fournisseurs pris en charge.

Agent conversationnel

Agent conversationnel alimenté par IA conçu pour interagir avec les utilisateurs en langage naturel, souvent utilisé pour le service à la clientèle ou la récupération d'informations. Dans le contexte de Select AI, l'agent conversationnel Ask Oracle aide les utilisateurs à poser des questions en langage naturel et à recevoir des réponses générées par l'IA et appuyées par leur base de données et leur contenu privé. Grâce à cette interface utilisateur, les utilisateurs peuvent :
  • Posez des questions en langage naturel et obtenez un code SQL généré automatiquement (NL2SQL).
  • Exécutez des interrogations sur des tables et des vues de base de données à l'aide de Select AI.
  • Utilisez la génération augmentée par extraction (RAG ou retrieval-augmented generation) pour inclure le contenu de document privé stocké dans Autonomous AI Database.
  • Interagissez avec les équipes d'agent que vous avez définies avec Select AI Agent.

Pour plus de détails, voir Demander à Oracle.

Lien de nuage

Un lien vers le nuage établit une connectivité privée et sécurisée entre Oracle Cloud Infrastructure et des fournisseurs de nuage externes ou des réseaux sur place, facilitant ainsi l'échange de données transparent. Dans Select AI, les liens en nuage permettent à Autonomous AI Database d'intégrer des données externes dans les interactions NL2SQL sans exposition publique, ce qui permet aux utilisateurs d'interroger les environnements hybrides de façon conversationnelle tout en respectant les normes de sécurité d'Oracle, telles que le chiffrement et les contrôles d'accès, pour des analyses conformes basées sur l'IA. Pour plus de détails, voir Utiliser des liens en nuage pour l'accès aux données en lecture seule sur une base de données d'IA autonome.

Conversations

Les conversations dans Select AI représentent un échange interactif entre l'utilisateur et le système, permettant aux utilisateurs d'interroger ou d'interagir avec la base de données au moyen d'une série d'invites en langage naturel. Select AI intègre des conversations à court terme basées sur la session pour générer des réponses contextuelles pour l'invite courante en fonction des interactions précédentes. Jusqu'à 10 invites précédentes sont intégrées à la demande courante avec des conversations à court terme, ce qui crée une invite augmentée envoyée au LLM. Select AI prend en charge l'utilisation de conversations personnalisables à long terme, ce qui vous permet d'utiliser Select AI avec différents sujets sans mélanger le contexte, qui peut être configuré au moyen des API de conversation de l'ensemble DBMS_CLOUD_AI. Voir Sélectionner des conversations avec l'intelligence artificielle.

Données d'identification de la base de données

Les données d'identification de base de données sont des données d'identification d'authentification utilisées pour accéder aux bases de données et interagir avec elles. Ils se composent généralement d'un nom d'utilisateur et d'un mot de passe, parfois complétés par des facteurs d'authentification supplémentaires tels que des jetons de sécurité. Ces informations d'identification sont utilisées pour établir une connexion sécurisée entre une application ou un utilisateur et une base de données, de sorte que seuls les individus ou systèmes autorisés peuvent accéder aux données stockées dans la base de données et les manipuler.

Lien de base de données

Un lien de base de données connecte une base de données Oracle à des bases distantes, ce qui permet un accès transparent aux données externes comme si elles étaient locales. Dans Select AI, les liens de base de données s'intègrent à Autonomous AI Database ou Oracle AI Database sur place pour étendre les capacités NL2SQL aux sources fédérées, en prenant en charge les interrogations en langage naturel qui s'étendent sur des environnements sur place ou en nuage en toute sécurité. Pour plus de détails, voir CREATE DATABASE LINK et Utiliser des liens de base de données avec Autonomous AI DATABASE.

Modèle d'intégration

Modèle d'IA qui convertit les données d'entrée en intégrations vectorielles pour saisir les relations sémantiques, souvent utilisées dans des tâches telles que la compréhension du langage et la reconnaissance d'images. Sélectionnez AI utilise des modèles d'intégration pour calculer les intégrations de vos documents, tables et texte d'interrogation. Ces intégrations alimentent la recherche sémantique, les flux de travail RAG, la notation de similarité et le classement de pertinence dans Autonomous AI Database.

Hallucination en LLM

Hallucination dans le contexte des grands modèles de langage fait référence à un phénomène où le modèle génère un texte incorrect, non sensé ou sans rapport avec l'invite d'entrée. Bien qu'elles soient le résultat de la tentative du modèle de générer un texte cohérent, ces réponses peuvent contenir des informations fabriquées, trompeuses ou purement imaginatives. L'hallucination peut survenir en raison de biais dans les données d'entraînement, d'un manque de compréhension du contexte ou de limites dans le processus d'entraînement du modèle.

GIA

Le service de gestion des identités et des accès (GIA) pour Oracle Cloud Infrastructure vous permet de configurer les droits d'accès aux ressources en nuage. Vous pouvez contrôler le type d'accès affecté à un groupe d'utilisateurs et les ressources concernées. Pour en savoir plus, voir Aperçu du service de gestion des identités et des accès.

Raffinement itératif

L'affinement itératif est un processus d'amélioration progressive d'une solution ou d'un modèle à travers des cycles répétés d'ajustements basés sur la rétroaction ou l'évaluation. Il commence par une approximation initiale, l'affine étape par étape et se poursuit jusqu'à ce que la précision ou le résultat souhaité soit atteint. Chaque itération s'appuie sur la précédente, en incorporant des corrections ou des optimisations pour se rapprocher de l'objectif.

Lors de la génération d'un sommaire de texte, un affinement itératif peut être utile pour traiter des fichiers ou des documents volumineux. Le processus divise le texte en fragments de taille gérable, par exemple, qui correspondent aux limites de jetons d'un LLM, génère un sommaire pour un fragment, puis améliore le sommaire en incorporant séquentiellement les fragments suivants.

Cas d'utilisation pour l'affinement itératif :

  • Convient mieux pour les situations où la précision et la cohérence contextuelles sont essentielles, par exemple pour résumer des textes complexes ou hautement interconnectés où chaque partie s'appuie sur le précédent.
  • Idéal pour les tâches à petite échelle où le traitement séquentiel est acceptable.

Voir Techniques de résumé.

Grand modèle de langage (LLM)

Un grand modèle de langage (LLM) fait référence à un type avancé de modèle d'intelligence artificielle qui est entraîné sur des quantités massives de données textuelles pour prendre en charge un éventail de cas d'utilisation en fonction de leurs données d'entraînement. Cela inclut la compréhension et la génération d'un langage de type humain, ainsi que des requêtes de code logiciel et de base de données. Ces modèles sont capables d'effectuer un large éventail de tâches de traitement du langage naturel, y compris la génération de texte, la traduction, la synthèse, la réponse aux questions, l'analyse des sentiments et plus encore. Les LLM sont généralement basés sur des modèles de réseau neuronal d'apprentissage profond sophistiqués qui apprennent des modèles, du contexte et de la sémantique à partir des données d'entrée, ce qui leur permet de générer un texte cohérent et contextuellement pertinent.

MapReduce

En général, le modèle de programmation MapReduce permet de traiter des données volumineuses en divisant les tâches en deux phases : Map et Reduce.
  • Mappage : Traite les données d'entrée et les transforme en paires clé-valeur.
  • Réduction : Agrége et résume les données mappées en fonction des clés. MapReduce effectue un traitement parallèle des jeux de données volumineux.

Dans le cas de Select AI Summarize, MapReduce partitionne le texte en plusieurs fragments et les traite en parallèle et indépendamment, générant des sommaires individuels pour chaque fragment. Ces résumés sont ensuite combinés pour former un résumé global cohérent.

Cas d'utilisation pour la réduction des mappages :

  • Idéal pour les tâches parallèles à grande échelle où la vitesse et l'évolutivité sont des priorités, telles que la synthèse de très grands ensembles de données ou de documents.
  • Idéal pour les situations où l'indépendance des fragments est acceptable, et les résumés peuvent être regroupés plus tard.

Voir Techniques de résumé.

Métadonnées

Les métadonnées sont des données qui décrivent les données. Dans le cas de Select AI, les métadonnées sont des métadonnées de base de données, qui font référence aux données qui décrivent la structure, l'organisation et les propriétés des tables et des vues de base de données.

Pour les tables et les vues de base de données, les métadonnées comprennent les noms et les types de colonne, les contraintes et les clés, les définitions de vue, les relations, le lignage, les indicateurs de qualité et de fraîcheur, les classifications de sécurité et les politiques d'accès. Des métadonnées bien gérées permettent la détection, l'utilisation correcte, le réglage des performances et la conformité. Sélectionnez AI augmente les invites NL2SQL avec les métadonnées de table qui incluent la définition de table (nom de table, noms de colonne et leurs types de données), et facultativement les commentaires de table et de colonne, les annotations et les contraintes.

Clone des métadonnées

Un clone de métadonnées ou un clone de base de données d'intelligence artificielle autonome crée une copie des métadonnées définissant la base de données ou le schéma, contenant uniquement la structure et non les données réelles. Ce clone inclut des tables, des index, des vues, des statistiques, des procédures et des déclencheurs sans ligne de données. Les développeurs, les testeurs ou ceux qui créent des modèles de base de données trouvent cela utile. Pour en savoir plus, voir Cloner, déplacer ou mettre à niveau une instance de base de données d'IA autonome.

Enrichissement des métadonnées

La pratique consistant à augmenter les schémas de base de données avec des descriptions, des commentaires et des annotations de haute qualité afin qu'un LLM puisse mieux comprendre l'intention des tables et des colonnes, clarifier la signification métier et générer des instructions SQL plus précises. Il transforme les noms de table ou de colonne nus en ressources bien documentées avec une intention, des relations et des contraintes claires.

Informations sur le candidat à inclure :

  • Description des tables et des colonnes : objet, définitions d'affaires, unités et intervalles de valeurs autorisés
  • Clés et relations : clés primaires/étrangères, chemins de jointure
  • Sémantique des données : granularité temporelle, dimensions à modification lente, règles de déduplication
  • Contraintes et qualité : nullité, unicité, règles de validation, fraîcheur des données
  • Synonymes et alias : termes métier courants qui correspondent à des noms techniques
  • Exemples et modèles : exemples de valeurs, filtres communs ou agrégations

Voir Aperçu de l'enrichissement de l'IA pour en savoir plus sur l'ajout de telles métadonnées à l'aide d'Oracle SQL Developer for VS Code au moyen de Visual Studio Code.

Invite de langue naturelle

Une invite de langage naturel se compose d'instructions, de questions ou d'énoncés d'entrée exprimés dans le langage humain quotidien (comme l'anglais) qui guident la réponse d'un LLM. Au lieu d'exiger du code ou une syntaxe spécialisée, les utilisateurs interagissent avec le LLM en entrant des phrases ou des expressions qui décrivent leur intention, demandent des informations ou spécifient une tâche.

Exemple :

  • " Quel est le chiffre d'affaires du dernier trimestre dans chaque région de l'entreprise? "
  • " Quelle est notre politique interne en matière de congé parental? "
  • "Résumez cet article."
  • "Écrivez un e-mail à un client pour s'excuser d'un retard d'expédition."
  • "Quelles sont les principales différences entre les bases de données SQL et NoSQL?

Ces invites tirent parti de la compréhension du langage humain par le modèle pour générer des résultats utiles et pertinents pour le contexte. Les invites de langage naturel sont essentielles à la convivialité du LLM, ce qui rend les capacités d'IA avancées accessibles aux utilisateurs sans expertise technique.

Liste de contrôle d'accès réseau (ACL)

Une liste de contrôle d'accès au réseau est un ensemble de règles ou d'autorisations qui définissent le trafic réseau autorisé à passer par un périphérique réseau, tel qu'un routeur, un pare-feu ou une passerelle. Les listes de contrôle d'accès sont utilisées pour contrôler et filtrer le trafic entrant et sortant en fonction de divers critères tels que les adresses IP, les numéros de port et les protocoles. Ils jouent un rôle crucial dans la sécurité du réseau en permettant aux administrateurs de gérer et de restreindre le trafic réseau afin d'éviter les accès non autorisés, les attaques potentielles et les violations de données.

NL2SQL

Le langage naturel vers SQL (NL2SQL) convertit les questions en langage naturel en énoncés SQL à l'aide de l'IA générative.

Sélectionnez AI utilise activement NL2SQL pour interpréter les invites des utilisateurs et générer des énoncés SQL corrects et exécutables sur votre base de données IA autonome ou des sources externes connectées. Cela permet aux utilisateurs professionnels de poser des questions telles que "Afficher les revenus du dernier trimestre par région" et de recevoir des interrogations SQL et des résultats exacts, sans expertise SQL.

ONNX

ONNX (Open Neural Network Exchange) est un format standard ouvert pour représenter les modèles d'apprentissage automatique et d'apprentissage profond. ONNX normalise la représentation et l'échange de modèles d'apprentissage automatique entre les cadres, ce qui permet un déploiement et une interopérabilité transparents. Pour plus de détails, voir ONNX.

Select AI peut utiliser des modèles d'IA générative exportés au format ONNX pour exécuter des charges de travail d'IA directement dans Autonomous AI Database ou au moyen d'exécutions prises en charge permettant aux organisations de tirer parti des modèles préentraînés pour les tâches de traitement du langage naturel telles que la génération d'interrogations. En utilisant les modèles ONNX, vous gardez l'inférence près de vos données, réduisez le déplacement des données et permettez un traitement de modèles cohérent dans différents outils et environnements garantissant des opérations d'IA conformes.

Exécution ONNX

ONNX Runtime exécute efficacement les modèles au format ONNX sur toutes les plateformes matérielles, optimisant l'inférence pour les applications d'IA en temps réel.

Certains utilisateurs d'IA peuvent spécifier des modèles au format ONNX dans la base de données dans leur profil d'IA pour la prise en charge de la RAG. La base de données intègre l'exécution ONNX dans Oracle AI Database 26ai et Autonomous AI Database. L'utilisation de l'exécution ONNX dans la base de données évite d'envoyer du contenu à un moteur externe pour produire, par exemple, des intégrations vectorielles. ONNX Runtime optimise l'évaluation à l'exécution des modèles basés sur un transformateur dans Autonomous AI Database, facilitant ainsi le chargement des modèles ONNX, les conversions rapides de langage naturel en SQL (NL2SQL), les intégrations de calcul, la classification des données ou l'inférence dans le moteur de base de données sans envoyer de données au service externe, ce qui améliore les performances des interrogations et la sécurité, la latence et la gouvernance. Pour plus de détails, voir Exemple : Sélectionner l'intelligence artificielle avec des modèles de transformateur dans la base de données et Exécution ONNX.

Point d'extrémité privé

Un point de communication sécurisé et dédié qui permet un accès restreint à des services ou ressources spécifiques. Un point d'extrémité privé établit une connexion sécurisée et dédiée qui restreint l'accès à des services ou à des ressources spécifiques, assurant ainsi une communication isolée. Dans Select AI, les organisations peuvent configurer des points d'extrémité privés dans Oracle Cloud Infrastructure (OCI) pour se connecter à des LLM privés tels qu'Ollama ou Llama.cpp sur des machines virtuelles, afin de répondre aux besoins de sécurité en traitant des charges de travail d'IA dans le réseau en nuage virtuel Oracle. Cette configuration comprend un sous-réseau public avec un serveur de saut pour un accès contrôlé et un sous-réseau privé hébergeant la base de données d'IA autonome et les modèles d'IA, empêchant ainsi l'exposition à Internet et maintenant tous les composants conformes aux exigences d'isolement de l'entreprise. Pour plus de détails, voir Accès au point d'extrémité privé pour la sélection de modèles d'intelligence artificielle.

Génération augmentée par extraction (RAG)

Retrieval Augmented Generation (RAG) est une technique qui consiste à extraire des informations pertinentes pour la requête d'un utilisateur et à fournir ces informations à un grand modèle de langage (LLM) pour améliorer les réponses et réduire l'hallucination.

Le plus souvent, la RAG implique une recherche vectorielle, mais plus généralement, inclut l'augmentation d'une invite de contenu de base de données (manuellement ou automatiquement), telle que les métadonnées de schéma pour la génération SQL ou le contenu de base de données explicitement interrogé. D'autres formes d'augmentation peuvent impliquer des technologies telles que l'analyse graphique et l'apprentissage automatique traditionnel.

Recherche de similarité sémantique

La recherche de similarité sémantique identifie et extrait les points de données qui correspondent étroitement à une interrogation donnée en comparant les vecteurs de fonction dans un magasin de vecteurs.

Sidecar

L'architecture sidecar permet à une base de données d'agir en tant que référentiel de métadonnées central pour les sources de données locales et distantes, c'est-à-dire Oracle et non Oracle. Select AI utilise cette architecture en tirant parti des métadonnées pour créer une invite augmentée envoyée au LLM sélectionné par l'utilisateur, qui génère ensuite une interrogation SQL fédérée. L'un des principaux avantages de la side-car est qu'elle permet aux données de rester dans leur emplacement d'origine, éliminant ainsi le besoin de duplication des données ou de processus ETL complexes.

Il prend en charge l'accès fédéré à divers systèmes externes, tels que BigQuery, Redshift, multinuages ou bases de données sur place, en reliant ces sources de manière sécurisée à Autonomous AI Database.

Seuil de similitude

Un seuil de similarité définit une note minimale pour classer deux éléments comme liés, en filtrant les résultats en fonction de leur proximité vectorielle ou de leur distance. Dans Select AI, le seuil de similarité permet de filtrer les résultats qui tombent en dessous d'un niveau requis de proximité sémantique, en veillant à ce que seuls les fragments de document, les lignes ou les plongements hautement liés soient retournés.

Génération de données synthétiques

Dans le contexte de Select AI, la génération de données synthétiques permet de générer automatiquement des données artificielles conformes à votre schéma de base de données, ce qui vous permet d'alimenter des tables pour des scénarios de développement, de test, d'entraînement ou de démonstration de faisabilité sans utiliser de données sensibles ou de production. Sélectionnez AI qui fournit la fonction PL/SQL DBMS_CLOUD_AI.GENERATE_SYNTHETIC_DATA pour produire des jeux de données synthétiques. Pour plus de détails, voir Génération de données synthétiques.

Transformateur

Type d'architecture de modèle d'apprentissage profond couramment utilisé pour les tâches de traitement du langage naturel, telles que la génération d'intégration vectorielle ou la génération et la traduction de texte. Dans Select AI, les LLM basés sur un transformateur entraînent la conversion des interrogations utilisateur en interrogations SQL pouvant être exécutées dans votre base de données.

Vecteur

Dans le contexte de la recherche de similarité sémantique, un vecteur est une représentation mathématique qui capture la signification sémantique des points de données, tels que des mots, des documents ou des images, dans un espace multidimensionnel.

Dans le contexte de Select AI, les vecteurs prennent en charge la génération augmentée d'extraction en capturant la signification du contenu textuel pour permettre une extraction sémantique rapide à partir de la base de données.

Base de données vectorielle

Base de données qui stocke les intégrations vectorielles, qui sont des représentations mathématiques de points de données utilisés dans les applications d'IA pour prendre en charge une recherche de similarité sémantique efficace. Oracle Autonomous AI Database et Oracle AI Database servent de base de données vectorielle avec des index vectoriels optimisés.

Dans Select AI, le composant de base de données vectorielle (alimenté par Oracle AI Vector Search) indexe les intégrations générées à partir des données d'entreprise. Cela permet aux interrogations de langage naturel d'extraire des résultats sémantiquement similaires, d'améliorer la pertinence des flux de travail de recherche et de RAG alimentés par l'IA et de fournir une intégration transparente aux environnements Oracle Cloud.

Distance vectorielle

La distance vectorielle mesure la similarité ou la dissimilarité entre les vecteurs caractéristiques en calculant la distance entre eux dans un espace multidimensionnel.

Index vectoriel

Un index vectoriel organise et stocke les vecteurs pour permettre une recherche et une extraction efficaces des données connexes.

Magasin de vecteurs

Un magasin de vecteurs comprend des systèmes qui stockent, gèrent et activent la recherche de similarité sémantique impliquant des intégrations de vecteurs. Cela inclut les bases de données vectorielles autonomes et la recherche de vecteurs IA dans Oracle AI Database 26ai.