À propos de Select AI

Utilisez le langage naturel pour interagir avec votre base de données et vos LLM au moyen de SQL afin d'améliorer la productivité des utilisateurs et de développer des applications basées sur l'IA. Select AI simplifie et automatise l'utilisation de l'IA générative, que ce soit pour générer, exécuter et expliquer du SQL à partir d'une invite de langage naturel, à l'aide de la génération augmentée d'extraction avec des magasins vectoriels, la génération de données synthétiques ou le clavardage avec le LLM.

Lorsque vous utilisez Select AI, Autonomous AI Database gère le processus de conversion du langage naturel en SQL. Cela signifie que vous pouvez fournir une invite en langage naturel plutôt qu'un code SQL pour interagir avec vos données. Select AI sert d'outil de productivité pour les utilisateurs et les développeurs SQL et permet aux utilisateurs SQL non experts de tirer des informations utiles de leurs données, sans avoir à comprendre les structures de données ou les langages techniques.

Select AI automatise également le processus d'extraction de génération augmentée (RAG), de la génération d'intégrations vectorielles à l'extraction de contenu pertinent en fonction de votre invite au moyen d'une recherche de similarité sémantique à l'aide de votre magasin de vecteurs. D'autres fonctionnalités incluent la génération de données synthétiques, la prise en charge de l'historique de clavardage pour les conversations et d'autres fonctionnalités, le tout à partir d'une interface SQL.

L'ensemble DBMS_CLOUD_AI permet l'intégration à un LLM spécifié par l'utilisateur pour générer du code SQL à l'aide d'invites de langage naturel. Pour la génération du langage naturel vers SQL, ce package fournit une invite augmentée au LLM contenant les métadonnées de schéma de base de données pertinentes. Cela permet de générer, d'exécuter et d'expliquer des interrogations SQL en fonction des invites de langage naturel. Il facilite également la génération augmentée d'extraction à l'aide de magasins vectoriels, la génération de données synthétiques et permet le clavardage avec le LLM. L'ensemble DBMS_CLOUD_AI fonctionne avec les fournisseurs d'IA répertoriés dans Sélectionner votre fournisseur d'IA et vos LLM.
Note

  • Vous devez avoir un compte auprès du fournisseur d'IA et fournir les données d'identification au moyen des objets DBMS_CLOUD_AI que la base de données d'IA autonome utilise.

  • Vous pouvez soumettre des invites dans plusieurs langues. La qualité du résultat dépend des capacités du LLM spécifique ou du modèle d'intégration (transformateur) utilisé. Vérifiez votre LLM ou la documentation du modèle d'intégration pour la prise en charge multilingue.

Rubriques

Directives d'utilisation

Fournit des directives d'utilisation pour faciliter l'utilisation de Select AI pour la génération du langage naturel vers SQL.

Utilisation projetée

Cette fonction génère, exécute et explique les interrogations SQL à partir des invites de langage naturel fournies par l'utilisateur. Il automatise les tâches que les utilisateurs exécuteraient manuellement à l'aide des métadonnées de schéma et d'un grand modèle de langage (LLM) de leur choix. En outre, il facilite la génération augmentée d'extraction avec des magasins vectoriels et permet le clavardage avec le LLM.

Selon l'action Sélectionner l'IA que vous spécifiez, vous fournissez une invite, que ce soit pour la génération SQL, la RAG ou le clavardage direct, et Select AI automatise l'interaction avec les LLM et votre base de données à l'aide d'interfaces SQL et PL/SQL. Plus précisément, il génère des interrogations SQL à partir du langage naturel en fonction des métadonnées du schéma et des tables spécifiés. En outre, il facilite l'IA générative basée sur le clavardage, éventuellement améliorée avec le contenu des magasins de vecteurs grâce à la génération augmentée de récupération (RAG) pour une meilleure qualité de réponse. Il explique également les interrogations SQL basées sur des invites en langage naturel et prend en charge la génération de données synthétiques pour une ou plusieurs tables de schéma. Select AI permet de soumettre des demandes générales avec l'action chat.

Invite - Données d'augmentation

Pour la génération d'interrogations SQL, la base de données augmente l'invite spécifiée par l'utilisateur avec les métadonnées de la base de données afin d'atténuer les hallucinations à partir du LLM. L'invite augmentée est ensuite envoyée au LLM spécifié par l'utilisateur pour produire l'interrogation. Lors de l'utilisation de magasins de vecteurs avec génération augmentée de récupération (RAG), le contenu du magasin de vecteurs est extrait à l'aide de la recherche de similarité sémantique avec l'invite fournie. Ce contenu fait partie de l'invite augmentée envoyée au LLM.

La base de données augmente l'invite avec les métadonnées de schéma uniquement. Ces métadonnées peuvent inclure des définitions de schéma, des commentaires de table et de colonne et du contenu disponible dans le dictionnaire de données. Aux fins de génération SQL, la base de données ne fournit pas de contenu de table ou de vue (valeurs réelles de ligne ou de colonne) lors de l'augmentation de l'invite.

Toutefois, l'action narrate fournit au grand modèle de langage :
  • le résultat d'une interrogation SQL en langage naturel, qui contient des données de base de données, ou
  • le résultat de la recherche de similarité sémantique telle qu'elle est extraite du magasin de vecteurs prenant en charge la génération augmentée de récupération (RAG).
Le LLM utilise ces résultats pour générer une réponse textuelle en langage naturel.

AVERTISSEMENT :

Les grands modèles de langage (LLM) ont été formés sur un large éventail de documents et de contenus textuels, généralement à partir d'Internet. Par conséquent, les LLM peuvent avoir incorporé des modèles de contenu invalide ou malveillant, y compris l'injection SQL. Ainsi, bien que les LLM soient en mesure de générer du contenu utile et pertinent, ils peuvent également générer des informations incorrectes et fausses, y compris des interrogations SQL qui produisent des résultats inexacts et/ou compromettent la sécurité de vos données.

Les interrogations générées en votre nom par le fournisseur de GML spécifié par l'utilisateur seront exécutées dans votre base de données. Votre utilisation de cette fonction se fait à vos propres risques et, nonobstant toute autre condition relative aux services fournis par Oracle, constitue votre acceptation de ce risque et votre exclusion expresse de la responsabilité ou de la responsabilité d'Oracle pour tout dommage résultant de cette utilisation.

Plates-formes prises en charge

Select AI est pris en charge sur Autonomous AI Database Serverless et Autonomous AI Database sur une infrastructure Exadata dédiée et Cloud at Customers.

  • Base de données d'IA autonome sans serveur
  • Base de données d'intelligence artificielle autonome sur une infrastructure Exadata dédiée
  • Base de données d'intelligence artificielle autonome sur une région d'infrastructure Exadata dédiée
  • Base de données Autonomous AI Database Cloud@Customer

Sélectionnez votre fournisseur d'IA et vos LLM

Choisissez un fournisseur d'IA et un LLM qui répond à vos normes de sécurité et qui s'aligne sur vos besoins spécifiques, tels que la génération de texte ou de code.

Les différents LLM excellent dans diverses tâches en fonction de leurs données d'entraînement et de l'objectif prévu. Certains modèles sont excellents pour la génération de texte, mais peuvent ne pas fonctionner correctement dans la génération de code, tandis que d'autres sont spécifiquement optimisés pour les tâches de codage. Choisissez un LLM qui convient le mieux à vos besoins.

Fournisseur d'intelligence artificielle GML Modèle d'intégration pour la RAG Fonction

Service d'intelligence artificielle générative pour OCI

  • meta.llama-3.3-70b-instruct (par défaut)

  • meta.llama-3.2-90b-vision-instruct

  • meta.llama-3.2-11b-vision-instruct

  • meta.llama-3.1-70b-instruct

  • meta.llama-3.1-405b-instruct

  • cohere.command-r-08-2024

  • cohere.command-r-plus-08-2024

  • cohere.command-r-16k (obsolète)

  • cohere.command–r-plus (obsolète)

  • xai.grok-3

  • xai.grok-3-fast

  • xai.grok-3-mini

  • xai.grok-3-mini-rapide

  • xai.grok-4

  • xai.grok-4-Raisonnement rapide

  • xai.grok-4-rapide-non-raisonnable

  • cohere.embed-english-v3.0 (par défaut)
  • cohere.embed-multilingue-v3.0
  • cohere.embed-english-light-v3.0
  • cohere.embed-multilingual-light-v3.0

Voir À propos de l'intégration de modèles dans le service d'intelligence artificielle générative.

Les modèles de clavardage du service d'intelligence artificielle générative pour OCI sont pris en charge pour toutes les actions SELECT AI, telles que runsql, showsql, explainsql, narrate et chat.

Les modèles de génération de texte OCI ne sont pris en charge que pour l'action SELECT AI chat.

Pour configurer vos attributs de profil, voir Attributs de profil.

Service Azure OpenAI

  • GPT-4o
  • GPT-4
  • GPT-4 Turbo avec Vision
  • GPT-3.5-Turbo

text-embedding-ada-002

Idéal pour générer du code SQL à partir des invites de langage naturel, de l'action chat et de la RAG Select AI.

OpenAI

  • gpt-3.5-turbo (par défaut)
  • gpt-4o
  • gpt-4o-mini
  • gpt-4
  • gpt-4-0613
  • gpt-4-32k
  • gpt-4-32k-0613
  • gpt-3.5-turbo-0613
  • gpt-3.5-turbo-16k
  • gpt-3.5-turbo-16k-0613

text-embedding-ada-002

Idéal pour générer du code SQL à partir des invites de langage naturel, de l'action chat et de la RAG Select AI.

Compatible avec OpenAI

Modèles de fournisseurs compatibles OpenAI, tels que :
  • Feux d'artifice IA
  • xAI
  • Autres
Intégration de modèles à partir de fournisseurs de type OpenAI. Par exemple, voir Modèles d'intégration de Fireworks AI.

Prend en charge un large éventail de cas d'utilisation.

Cohere

  • commande (par défaut)
  • tous les jours (expérimental)
  • commande-r
  • commande-r-plus
  • lumière de commande
  • commande-lumière-nuit (expérimentale)
  • modèles personnalisés

embarquer-english-v2.0

Idéal pour l'action chat.

Google

  • gemini-1.5-flash (par défaut)
  • gemini-1.5-pro
  • gemini-1.0-pro
text-embedding-004 (par défaut)

Idéal pour générer du code SQL à partir des invites de langage naturel, de l'action chat et de la RAG Select AI.

Anthropique

  • claude-3-5-sonnet-20240620 (par défaut)
  • claude-3-opus-20240229
  • claude-3-sonnet-20240229
  • claude-3-haiku-20240307
Non disponible

Idéal pour générer du code SQL à partir des invites de langage naturel, de l'action chat et de la RAG Select AI.

S'étreindre le visage

  • Mixtral-8x7B-Instruct-v0.1 (valeur par défaut)
  • Meta-Llama-3-70B-Instruct
  • Qwen1.5-1.8B
  • autres modèles de clavardage
Non disponible

Idéal pour générer du code SQL à partir des invites de langage naturel, de l'action chat et de la RAG Select AI.

AWS

  • amazon.titan-embed-text-v1
  • amazon.titan-embed-text-v2 :0
  • cohere.embed-english-v3

Prend en charge un large éventail de cas d'utilisation.

Note

  • Spécifiez un fournisseur compatible OpenAI au moyen de provider_endpoint au lieu du paramètre provider. Voir Attributs de profil.

  • Pour les modèles qui acceptent des images, utilisez meta.llama-3.2-90b-vision-instruct. Ce modèle est spécifiquement entraîné pour la vision et les images. Bien qu'il puisse être utilisé pour la génération de texte et SQL, le modèle convient mieux aux images. Pour en savoir plus, voir Clavarder avec le service d'intelligence artificielle générative pour OCI.

    Le modèle meta.llama-3.2-11b-vision-instruct offre des capacités multimodales robustes.

  • Les modèles d'intégration sont également appelés modèles de transformateurs.