Sélectionner des concepts d'IA
Explorer les concepts et les termes liés à Select AI.
- Actions
- Profil AI
- Fournisseur d'intelligence artificielle
- Conversations
- Informations d'identification de la base de données
- Hallucination dans le LLM
- IAM
- Large Language Model (LLM)
- Métadonnées
- Clone de métadonnées
- Invites en langage naturel
- Network Access Control List (ACL, Liste de contrôle d'accès réseau)
- RAG (Retrieval Augmented Generation, génération augmentée de récupération)
- Recherche de similarité sémantique
- Distance vectorielle
- Index vectoriel
- Magasin de vecteurs
Actions
Une action dans Select AI est un mot-clé qui indique à Select AI d'effectuer un comportement différent lors de l'action sur l'invite. En spécifiant une action, les utilisateurs peuvent demander à Select AI de traiter leur invite en langage naturel pour générer du code SQL, de répondre à une invite de discussion, de narrer la sortie, d'afficher l'instruction SQL ou d'expliquer le code SQL, en tirant parti des LLM pour interagir efficacement avec les données de leur environnement de base de données.
Les actions suivantes sont prises en charge pour Select AI :
-
runsql
: génère l'instruction SQL d'une invite en langage naturel et exécute la requête SQL sous-jacente pour renvoyer un ensemble de lignes. Il s'agit de l'action par défaut et ne nécessite pas de spécifier ce paramètre. -
showsql
: affiche l'instruction SQL d'une invite en langage naturel. -
narrate
: renvoie le résultat de la requête SQL exécutée par la base de données au LLM pour générer une description en langage naturel de ce résultat.Lorsqu'un index de vecteur est spécifié dans le profil AI pour activer la RAG, le système utilise le modèle de transformateur spécifié pour créer une intégration de vecteur à partir de l'invite de recherche de similarité sémantique par rapport à la banque de vecteurs. Le système ajoute ensuite le contenu extrait de la banque de vecteurs à l'invite utilisateur et l'envoie au LLM pour générer une réponse basée sur ces informations.
-
chat
: transmet l'invite utilisateur directement au LLM pour générer une réponse, qui est fournie à l'utilisateur. -
explainsql
: explique le code SQL généré à partir de l'invite en langage naturel. Cette option envoie le code SQL généré au fournisseur d'IA, qui produit ensuite une explication en langage naturel.
Pour plus de détails sur la façon dont vous pouvez utiliser ces actions, reportez-vous à Exemples d'utilisation de Select AI.
Rubrique parent : Sélectionner des concepts AI
Profil IA
Rubrique parent : Sélectionner des concepts AI
Fournisseur d'intelligence artificielle
Un fournisseur d'IA dans Select AI fait référence au fournisseur de services qui fournit le LLM ou le transformateur, ou les deux, pour le traitement et la génération de réponses aux invites en langage naturel. Ces fournisseurs offrent des modèles qui peuvent interpréter et convertir le langage naturel pour les cas d'utilisation mis en évidence sous le concept LLM. Reportez-vous à Sélectionner votre fournisseur d'IA et vos LLM pour les fournisseurs pris en charge.
Rubrique parent : Sélectionner des concepts AI
Conversations
Les conversations dans Select AI représentent un échange interactif entre l'utilisateur et le système, permettant aux utilisateurs d'interroger ou d'interagir avec la base de données via une série d'invites en langage naturel. Select AI intègre jusqu'à 10 invites précédentes dans la demande en cours, créant une invite augmentée envoyée au LLM. Reportez-vous à Activation des conversations pour améliorer l'interaction utilisateur.
Rubrique parent : Sélectionner des concepts AI
Informations d'identification de la base de données
Rubrique parent : Sélectionner des concepts AI
Hallucination en LLM
Rubrique parent : Sélectionner des concepts AI
IAM
Rubrique parent : Sélectionner des concepts AI
grand modèle de langage (LLM, Large Language Model)
Un grand modèle de langage (LLM) fait référence à un type avancé de modèle d'intelligence artificielle qui est entraîné sur des quantités massives de données textuelles pour prendre en charge un éventail de cas d'utilisation en fonction de leurs données d'entraînement. Cela inclut la compréhension et la génération d'un langage semblable à l'humain, ainsi que de code logiciel et de requêtes de base de données. Ces modèles sont capables d'effectuer un large éventail de tâches de traitement du langage naturel, y compris la génération de texte, la traduction, la synthèse, la réponse aux questions, l'analyse des sentiments, etc. Les LLM sont généralement basés sur des modèles de réseau neuronal sophistiqués de deep learning qui apprennent des modèles, du contexte et de la sémantique à partir des données d'entrée, ce qui leur permet de générer un texte cohérent et pertinent en contexte.
Rubrique parent : Sélectionner des concepts AI
Métadonnées
Rubrique parent : Sélectionner des concepts AI
Clone de métadonnées
Rubrique parent : Sélectionner des concepts AI
Invites en langage naturel
Rubrique parent : Sélectionner des concepts AI
Liste de contrôle d'accès réseau (ACL)
Rubrique parent : Sélectionner des concepts AI
Génération augmentée de récupération (RAG).
Le plus souvent, la RAG implique une recherche vectorielle, mais plus généralement, inclut l'augmentation d'une invite de contenu de base de données (manuelle ou automatique) tel que les métadonnées de schéma pour la génération SQL ou le contenu de base de données explicitement interrogé. D'autres formes d'augmentation peuvent impliquer des technologies telles que l'analyse de graphes et le machine learning traditionnel.
Rubrique parent : Sélectionner des concepts AI
Recherche de similarité sémantique
Rubrique parent : Sélectionner des concepts AI
Distance vectorielle
Rubrique parent : Sélectionner des concepts AI
Index vectoriel
Rubrique parent : Sélectionner des concepts AI
Magasin de vecteurs
Rubrique parent : Sélectionner des concepts AI