Sélectionner des concepts AI
Explique les concepts et les termes liés à Select AI.
- Actions
- Profil AI
- Fournisseur d'IA
- Conversations
- Informations d'identification de base de données
- Hallucination dans le LLM
- IAM
- Large Language Model (LLM)
- Métadonnées
- Clone de métadonnées
- Invites en langage naturel
- Liste de contrôle d'accès réseau (ACL)
- Extraction de la génération augmentée (RAG)
- Recherche de similarité sémantique
- Distance vectorielle
- Index vectoriel
- Banque vectorielle
Actions
Une action dans Select AI est un mot-clé qui indique à Select AI d'effectuer un comportement différent lors de l'action sur l'invite. En spécifiant une action, les utilisateurs peuvent demander à Select AI de traiter leur invite en langage naturel pour générer du code SQL, répondre à une invite de discussion, narrer la sortie, afficher l'instruction SQL ou expliquer le code SQL, en exploitant les LLM pour interagir efficacement avec les données au sein de leur environnement de base de données.
Voici les actions prises en charge pour Select AI :
-
runsql
: génère l'instruction SQL pour une invite en langage naturel et exécute la requête SQL sous-jacente pour renvoyer un ensemble de lignes. Il s'agit de l'action par défaut et ne nécessite pas de spécifier ce paramètre. -
showsql
: affiche l'instruction SQL pour une invite en langage naturel. -
narrate
: renvoie le résultat de la requête SQL exécutée par la base de données au LLM pour générer une description en langage naturel de ce résultat.Lorsqu'un index de vecteur est spécifié dans le profil AI pour activer la RAG, le système utilise le modèle de transformateur spécifié pour créer une intégration de vecteur à partir de l'invite de recherche de similarité sémantique sur la banque de vecteurs. Le système ajoute ensuite le contenu extrait de la banque de vecteurs à l'invite utilisateur et l'envoie au LLM pour générer une réponse basée sur ces informations.
-
chat
: transmet l'invite utilisateur directement au LLM pour générer une réponse, qui est fournie à l'utilisateur. -
explainsql
: explique le code SQL généré à partir de l'invite dans le langage naturel. Cette option envoie le code SQL généré au fournisseur AI, qui produit ensuite une explication en langage naturel.
Pour plus de détails sur l'utilisation de ces actions, reportez-vous à Exemples d'utilisation de Select AI.
Rubrique parent : Sélectionner des concepts AI
Profil d'IA
Rubrique parent : Sélectionner des concepts AI
Fournisseur d'intelligence artificielle
Un fournisseur d'IA dans Select AI fait référence au fournisseur de services qui fournit le LLM ou le transformateur, ou les deux, pour le traitement et la génération de réponses aux invites en langage naturel. Ces fournisseurs proposent des modèles capables d'interpréter et de convertir le langage naturel pour les cas d'emploi mis en évidence sous le concept LLM. Pour connaître les fournisseurs pris en charge, reportez-vous à Sélection de votre fournisseur AI et de vos LLM.
Rubrique parent : Sélectionner des concepts AI
Conversations
Les conversations dans Select AI représentent un échange interactif entre l'utilisateur et le système, permettant aux utilisateurs d'interroger ou d'interagir avec la base de données via une série d'invites en langage naturel. Sélectionnez AI incorpore jusqu'à 10 invites précédentes dans la demande en cours, créant ainsi une invite augmentée envoyée au LLM. Reportez-vous à Activation des conversations pour améliorer l'interaction utilisateur.
Rubrique parent : Sélectionner des concepts AI
Informations d'identification de base de données
Rubrique parent : Sélectionner des concepts AI
Hallucination en LLM
Rubrique parent : Sélectionner des concepts AI
IAM
Rubrique parent : Sélectionner des concepts AI
Modèle de langue large (LLM)
Un modèle LLM (Large Language Model) fait référence à un type avancé de modèle d'intelligence artificielle entraîné sur des quantités massives de données textuelles pour prendre en charge un éventail de cas d'utilisation en fonction de leurs données d'entraînement. Cela inclut la compréhension et la génération d'un langage de type humain, ainsi que le code logiciel et les requêtes de base de données. Ces modèles sont capables d'effectuer un large éventail de tâches de traitement du langage naturel, y compris la génération de texte, la traduction, la synthèse, la réponse aux questions, l'analyse des sentiments, etc. Les LLM sont généralement basés sur des modèles sophistiqués de réseau neuronal d'apprentissage profond qui apprennent des modèles, du contexte et de la sémantique à partir des données d'entrée, ce qui leur permet de générer un texte cohérent et pertinent sur le plan contextuel.
Rubrique parent : Sélectionner des concepts AI
Métadonnées
Rubrique parent : Sélectionner des concepts AI
Clone de métadonnées
Rubrique parent : Sélectionner des concepts AI
Invites en langage naturel
Rubrique parent : Sélectionner des concepts AI
Liste de contrôle d'accès réseau (ACL)
Rubrique parent : Sélectionner des concepts AI
Génération augmentée de récupération (RAG)
Le plus souvent, RAG implique la recherche vectorielle, mais plus généralement, inclut l'augmentation d'une invite de contenu de base de données (manuellement ou automatiquement), telle que les métadonnées de schéma pour la génération SQL ou le contenu de base de données explicitement interrogé. D'autres formes d'augmentation peuvent impliquer des technologies telles que l'analyse de graphes et le machine learning traditionnel.
Rubrique parent : Sélectionner des concepts AI
Recherche de similarité sémantique
Rubrique parent : Sélectionner des concepts AI
Distance vectorielle
Rubrique parent : Sélectionner des concepts AI
Index de vecteur
Rubrique parent : Sélectionner des concepts AI
Magasin vectoriel
Rubrique parent : Sélectionner des concepts AI