Sélectionner des concepts AI

Explique les concepts et les termes liés à Select AI.

Actions

Une action dans Select AI est un mot-clé qui indique à Select AI d'effectuer un comportement différent lors de l'action sur l'invite. En spécifiant une action, les utilisateurs peuvent demander à Select AI de traiter leur invite en langage naturel pour générer du code SQL, répondre à une invite de discussion, narrer la sortie, afficher l'instruction SQL ou expliquer le code SQL, en exploitant les LLM pour interagir efficacement avec les données au sein de leur environnement de base de données.

Voici les actions prises en charge pour Select AI :

  • runsql : génère l'instruction SQL pour une invite en langage naturel et exécute la requête SQL sous-jacente pour renvoyer un ensemble de lignes. Il s'agit de l'action par défaut et ne nécessite pas de spécifier ce paramètre.

  • showsql : affiche l'instruction SQL pour une invite en langage naturel.

  • narrate : renvoie le résultat de la requête SQL exécutée par la base de données au LLM pour générer une description en langage naturel de ce résultat.

    Lorsqu'un index de vecteur est spécifié dans le profil AI pour activer la RAG, le système utilise le modèle de transformateur spécifié pour créer une intégration de vecteur à partir de l'invite de recherche de similarité sémantique sur la banque de vecteurs. Le système ajoute ensuite le contenu extrait de la banque de vecteurs à l'invite utilisateur et l'envoie au LLM pour générer une réponse basée sur ces informations.

  • chat : transmet l'invite utilisateur directement au LLM pour générer une réponse, qui est fournie à l'utilisateur.

  • explainsql : explique le code SQL généré à partir de l'invite dans le langage naturel. Cette option envoie le code SQL généré au fournisseur AI, qui produit ensuite une explication en langage naturel.

Pour plus de détails sur l'utilisation de ces actions, reportez-vous à Exemples d'utilisation de Select AI.

Profil d'IA

Un profil AI est une spécification qui inclut le fournisseur AI à utiliser et d'autres détails concernant les métadonnées et les objets de base de données requis pour générer des réponses aux invites en langage naturel. Reportez-vous à Procédure CREATE_PROFILE et à Attributs de profil.

Fournisseur d'intelligence artificielle

Un fournisseur d'IA dans Select AI fait référence au fournisseur de services qui fournit le LLM ou le transformateur, ou les deux, pour le traitement et la génération de réponses aux invites en langage naturel. Ces fournisseurs proposent des modèles capables d'interpréter et de convertir le langage naturel pour les cas d'emploi mis en évidence sous le concept LLM. Pour connaître les fournisseurs pris en charge, reportez-vous à Sélection de votre fournisseur AI et de vos LLM.

Conversations

Les conversations dans Select AI représentent un échange interactif entre l'utilisateur et le système, permettant aux utilisateurs d'interroger ou d'interagir avec la base de données via une série d'invites en langage naturel. Sélectionnez AI incorpore jusqu'à 10 invites précédentes dans la demande en cours, créant ainsi une invite augmentée envoyée au LLM. Reportez-vous à Activation des conversations pour améliorer l'interaction utilisateur.

Informations d'identification de base de données

Les informations d'identification de base de données sont des informations d'identification d'authentification utilisées pour accéder aux bases de données et interagir avec elles. Ils se composent généralement d'un nom d'utilisateur et d'un mot de passe, parfois complétés par des facteurs d'authentification supplémentaires tels que des jetons de sécurité. Ces informations d'identification sont utilisées pour établir une connexion sécurisée entre une application ou un utilisateur et une base de données, de sorte que seules les personnes ou les systèmes autorisés peuvent accéder aux données stockées dans la base et les manipuler.

Hallucination en LLM

L'hallucination dans le contexte des grands modèles de langage fait référence à un phénomène dans lequel le modèle génère un texte incorrect, absurde ou sans rapport avec l'invite d'entrée. Bien qu'elles résultent de la tentative du modèle de générer un texte cohérent, ces réponses peuvent contenir des informations fabriquées, trompeuses ou purement imaginatives. L'hallucination peut se produire en raison de biais dans les données d'entraînement, d'un manque de compréhension correcte du contexte ou de limites dans le processus d'entraînement du modèle.

IAM

Oracle Cloud Infrastructure Identity and Access Management (IAM) vous permet de contrôler qui a accès à vos ressources cloud. Vous pouvez contrôler le type d'accès affecté à un groupe d'utilisateurs et les ressources spécifiques auxquelles ces utilisateurs ont accès. Pour en savoir plus, reportez-vous à Présentation d'Identity and Access Management.

Modèle de langue large (LLM)

Un modèle LLM (Large Language Model) fait référence à un type avancé de modèle d'intelligence artificielle entraîné sur des quantités massives de données textuelles pour prendre en charge un éventail de cas d'utilisation en fonction de leurs données d'entraînement. Cela inclut la compréhension et la génération d'un langage de type humain, ainsi que le code logiciel et les requêtes de base de données. Ces modèles sont capables d'effectuer un large éventail de tâches de traitement du langage naturel, y compris la génération de texte, la traduction, la synthèse, la réponse aux questions, l'analyse des sentiments, etc. Les LLM sont généralement basés sur des modèles sophistiqués de réseau neuronal d'apprentissage profond qui apprennent des modèles, du contexte et de la sémantique à partir des données d'entrée, ce qui leur permet de générer un texte cohérent et pertinent sur le plan contextuel.

Métadonnées

Les métadonnées de base de données font référence aux données qui décrivent la structure, l'organisation et les propriétés des tables et vues de base de données.

Clone de métadonnées

Un clone de métadonnées ou un clone Autonomous Database crée une copie des métadonnées définissant la base de données ou le schéma, contenant uniquement la structure, et non les données réelles. Ce clone inclut des tables, des index, des vues, des statistiques, des procédures et des déclencheurs sans ligne de données. Les développeurs, les testeurs ou ceux qui créent des modèles de base de données trouvent cela utile. Pour en savoir plus, reportez-vous à Clonage, déplacement ou mise à niveau d'une instance Autonomous Database.

Invites en langage naturel

Les invites de langage naturel sont des instructions lisibles par l'homme ou des demandes fournies pour guider les modèles d'IA générative, tels que les grands modèles de langage. Au lieu d'utiliser des langages de programmation ou des commandes spécifiques, les utilisateurs peuvent interagir avec ces modèles en entrant des invites sous une forme plus conversationnelle ou en langage naturel. Les modèles génèrent ensuite une sortie en fonction de l'invite fournie.

Liste de contrôle d'accès réseau (ACL)

Une liste de contrôle d'accès réseau est un ensemble de règles ou d'autorisations qui définissent le trafic réseau autorisé à passer par un périphérique réseau, tel qu'un routeur, un pare-feu ou une passerelle. Les ACL sont utilisées pour contrôler et filtrer le trafic entrant et sortant en fonction de divers critères tels que les adresses IP, les numéros de port et les protocoles. Ils jouent un rôle crucial dans la sécurité du réseau en permettant aux administrateurs de gérer et de restreindre le trafic réseau afin d'empêcher les accès non autorisés, les attaques potentielles et les violations de données.

Génération augmentée de récupération (RAG)

La génération augmentée de récupération (RAG) est une technique qui consiste à extraire des informations pertinentes pour la requête d'un utilisateur et à fournir ces informations à un grand modèle de langage (LLM) afin d'améliorer les réponses et de réduire l'hallucination.

Le plus souvent, RAG implique la recherche vectorielle, mais plus généralement, inclut l'augmentation d'une invite de contenu de base de données (manuellement ou automatiquement), telle que les métadonnées de schéma pour la génération SQL ou le contenu de base de données explicitement interrogé. D'autres formes d'augmentation peuvent impliquer des technologies telles que l'analyse de graphes et le machine learning traditionnel.

Recherche de similarité sémantique

La recherche de similarité sémantique identifie et extrait les points de données qui correspondent étroitement à une requête donnée en comparant les vecteurs de fonctionnalité dans un magasin de vecteurs.

Distance vectorielle

La distance vectorielle mesure la similarité ou la dissemblance entre les vecteurs de caractéristiques en calculant la distance entre eux dans un espace multidimensionnel.

Index de vecteur

Un index vectoriel organise et stocke des vecteurs pour permettre une recherche et une extraction efficaces de similarité des données associées.

Magasin vectoriel

Un magasin de vecteurs comprend des systèmes qui stockent, gèrent et activent la recherche de similarité sémantique impliquant des incorporations de vecteurs. Cela inclut les bases de données vectorielles autonomes et Oracle Database 23ai AI Vector Search.