Sélectionner des concepts d'IA

Explorer les concepts et les termes liés à Select AI.

Actions

Une action dans Select AI est un mot-clé qui indique à Select AI d'effectuer un comportement différent lors de l'action sur l'invite. En spécifiant une action, les utilisateurs peuvent demander à Select AI de traiter leur invite en langage naturel pour générer du code SQL, de répondre à une invite de discussion, de narrer la sortie, d'afficher l'instruction SQL ou d'expliquer le code SQL, en tirant parti des LLM pour interagir efficacement avec les données de leur environnement de base de données.

Les actions suivantes sont prises en charge pour Select AI :

  • runsql : génère l'instruction SQL d'une invite en langage naturel et exécute la requête SQL sous-jacente pour renvoyer un ensemble de lignes. Il s'agit de l'action par défaut et ne nécessite pas de spécifier ce paramètre.

  • showsql : affiche l'instruction SQL d'une invite en langage naturel.

  • narrate : renvoie le résultat de la requête SQL exécutée par la base de données au LLM pour générer une description en langage naturel de ce résultat.

    Lorsqu'un index de vecteur est spécifié dans le profil AI pour activer la RAG, le système utilise le modèle de transformateur spécifié pour créer une intégration de vecteur à partir de l'invite de recherche de similarité sémantique par rapport à la banque de vecteurs. Le système ajoute ensuite le contenu extrait de la banque de vecteurs à l'invite utilisateur et l'envoie au LLM pour générer une réponse basée sur ces informations.

  • chat : transmet l'invite utilisateur directement au LLM pour générer une réponse, qui est fournie à l'utilisateur.

  • explainsql : explique le code SQL généré à partir de l'invite en langage naturel. Cette option envoie le code SQL généré au fournisseur d'IA, qui produit ensuite une explication en langage naturel.

Pour plus de détails sur la façon dont vous pouvez utiliser ces actions, reportez-vous à Exemples d'utilisation de Select AI.

Profil IA

Un profil AI est une spécification qui inclut le fournisseur AI à utiliser et d'autres détails concernant les métadonnées et les objets de base de données requis pour générer des réponses aux invites de langage naturel. Reportez-vous à Procédure CREATE_PROFILE et Attributs de profil.

Fournisseur d'intelligence artificielle

Un fournisseur d'IA dans Select AI fait référence au fournisseur de services qui fournit le LLM ou le transformateur, ou les deux, pour le traitement et la génération de réponses aux invites en langage naturel. Ces fournisseurs offrent des modèles qui peuvent interpréter et convertir le langage naturel pour les cas d'utilisation mis en évidence sous le concept LLM. Reportez-vous à Sélectionner votre fournisseur d'IA et vos LLM pour les fournisseurs pris en charge.

Conversations

Les conversations dans Select AI représentent un échange interactif entre l'utilisateur et le système, permettant aux utilisateurs d'interroger ou d'interagir avec la base de données via une série d'invites en langage naturel. Select AI intègre jusqu'à 10 invites précédentes dans la demande en cours, créant une invite augmentée envoyée au LLM. Reportez-vous à Activation des conversations pour améliorer l'interaction utilisateur.

Informations d'identification de la base de données

Les informations d'identification de base de données sont des informations d'identification d'authentification utilisées pour accéder aux bases de données et interagir avec elles. Ils consistent généralement en un nom d'utilisateur et un mot de passe, parfois complétés par des facteurs d'authentification supplémentaires tels que les jetons de sécurité. Ces informations d'identification sont utilisées pour établir une connexion sécurisée entre une application ou un utilisateur et une base de données, de sorte que seuls les individus ou systèmes autorisés peuvent accéder aux données stockées dans la base de données et les manipuler.

Hallucination en LLM

L'hallucination dans le contexte des grands modèles de langage fait référence à un phénomène où le modèle génère un texte incorrect, absurde ou sans rapport avec l'invite d'entrée. Bien qu'elles résultent de la tentative du modèle de générer un texte cohérent, ces réponses peuvent contenir des informations qui sont fabriquées, trompeuses ou purement imaginatives. L'hallucination peut survenir en raison de biais dans les données d'entraînement, d'un manque de compréhension du contexte ou de limites dans le processus d'entraînement du modèle.

IAM

Oracle Cloud Infrastructure Identity and Access Management (IAM) vous permet de contrôler qui a accès à vos ressources cloud. Vous pouvez contrôler le type d'accès affecté à un groupe d'utilisateurs et les ressources spécifiques auxquelles ces utilisateurs ont accès. Pour en savoir plus, reportez-vous à Présentation d'Identity and Access Management.

grand modèle de langage (LLM, Large Language Model)

Un grand modèle de langage (LLM) fait référence à un type avancé de modèle d'intelligence artificielle qui est entraîné sur des quantités massives de données textuelles pour prendre en charge un éventail de cas d'utilisation en fonction de leurs données d'entraînement. Cela inclut la compréhension et la génération d'un langage semblable à l'humain, ainsi que de code logiciel et de requêtes de base de données. Ces modèles sont capables d'effectuer un large éventail de tâches de traitement du langage naturel, y compris la génération de texte, la traduction, la synthèse, la réponse aux questions, l'analyse des sentiments, etc. Les LLM sont généralement basés sur des modèles de réseau neuronal sophistiqués de deep learning qui apprennent des modèles, du contexte et de la sémantique à partir des données d'entrée, ce qui leur permet de générer un texte cohérent et pertinent en contexte.

Métadonnées

Les métadonnées de base de données font référence aux données qui décrivent la structure, l'organisation et les propriétés des tables et des vues de base de données.

Clone de métadonnées

Un clone de métadonnées ou un clone Autonomous Database crée une copie des métadonnées définissant la base de données ou le schéma, contenant uniquement la structure et non les données réelles. Ce clone inclut les tables, les index, les vues, les statistiques, les procédures et les déclencheurs sans ligne de données. Les développeurs, les testeurs ou ceux qui créent des modèles de base de données trouvent cela utile. Pour en savoir plus, reportez-vous à Clonage, déplacement ou mise à niveau d'une instance Autonomous Database.

Invites en langage naturel

Les invites de langage naturel sont des instructions ou des demandes lisibles par l'utilisateur fournies pour guider les modèles d'IA générative, tels que les grands modèles de langage. Au lieu d'utiliser des langages ou des commandes de programmation spécifiques, les utilisateurs peuvent interagir avec ces modèles en entrant des invites sous une forme plus conversationnelle ou en langage naturel. Les modèles génèrent ensuite une sortie en fonction de l'invite fournie.

Liste de contrôle d'accès réseau (ACL)

Une liste de contrôle d'accès réseau est un ensemble de règles ou d'autorisations qui définissent le trafic réseau autorisé à passer par un périphérique réseau, tel qu'un routeur, un pare-feu ou une passerelle. Les ACL sont utilisées pour contrôler et filtrer le trafic entrant et sortant en fonction de divers critères tels que les adresses IP, les numéros de port et les protocoles. Ils jouent un rôle crucial dans la sécurité du réseau en permettant aux administrateurs de gérer et de restreindre le trafic réseau pour empêcher les accès non autorisés, les attaques potentielles et les violations de données.

Génération augmentée de récupération (RAG).

La génération augmentée de récupération (RAG) est une technique qui consiste à récupérer des informations pertinentes pour la requête d'un utilisateur et à fournir ces informations à un grand modèle de langage (LLM) pour améliorer les réponses et réduire l'hallucination.

Le plus souvent, la RAG implique une recherche vectorielle, mais plus généralement, inclut l'augmentation d'une invite de contenu de base de données (manuelle ou automatique) tel que les métadonnées de schéma pour la génération SQL ou le contenu de base de données explicitement interrogé. D'autres formes d'augmentation peuvent impliquer des technologies telles que l'analyse de graphes et le machine learning traditionnel.

Recherche de similarité sémantique

La recherche de similarité sémantique identifie et extrait les points de données qui correspondent étroitement à une requête donnée en comparant les vecteurs de fonctionnalité dans une banque de vecteurs.

Distance vectorielle

La distance vectorielle mesure la similitude ou la dissimilarité entre les vecteurs caractéristiques en calculant la distance entre eux dans un espace multidimensionnel.

Index vectoriel

Un index vectoriel organise et stocke des vecteurs pour permettre une recherche et une extraction de similarité efficaces des données associées.

Magasin de vecteurs

Un magasin de vecteurs comprend des systèmes qui stockent, gèrent et activent la recherche de similarité sémantique impliquant des incorporations de vecteurs. Cela inclut les bases de données vectorielles autonomes et Oracle Database 23ai AI Vector Search.