Acerca de Select AI

Utiliza el lenguaje natural para interactuar con tu base de datos y LLM a través de SQL para mejorar la productividad del usuario y desarrollar aplicaciones basadas en IA. Select AI simplifica y automatiza el uso de la IA generativa, ya sea generando, ejecutando y explicando SQL a partir de una petición de datos en lenguaje natural, utilizando la generación aumentada de recuperación con almacenes vectoriales, generando datos sintéticos o chateando con el LLM.

Al utilizar Select AI, Autonomous Database gestiona el proceso de conversión de lenguaje natural en SQL. Esto significa que puede proporcionar una petición de datos en lenguaje natural en lugar de código SQL para interactuar con los datos. Select AI sirve como una herramienta de productividad para los usuarios y desarrolladores de SQL y permite a los usuarios de SQL no expertos obtener información útil de sus datos, sin tener que comprender estructuras de datos o lenguajes técnicos.

Select AI también automatiza el proceso de generación aumentada de recuperación (RAG) desde la generación de incrustaciones vectoriales hasta la recuperación de contenido relevante basado en su petición de datos a través de la búsqueda de similitud semántica utilizando su almacén de vectores. Otras funciones incluyen la generación de datos sintéticos, el soporte del historial de chat para conversaciones y otras funciones, todo desde una interfaz SQL.

El paquete DBMS_CLOUD_AI permite la integración con un LLM especificado por el usuario para generar código SQL mediante peticiones de datos en lenguaje natural. Para la generación de lenguaje natural a SQL, este paquete proporciona una petición de datos aumentada al LLM que contiene los metadatos de esquema de base de datos relevantes. Esto permite generar, ejecutar y explicar consultas SQL basadas en peticiones de datos en lenguaje natural. También facilita la recuperación de la generación aumentada utilizando almacenes vectoriales, la generación de datos sintéticos y permite chatear con el LLM. El paquete DBMS_CLOUD_AI funciona con los proveedores de IA que se muestran en Select your AI Provider and LLMs.
Nota

  • Debe tener una cuenta con el proveedor de AI y proporcionar las credenciales mediante los objetos DBMS_CLOUD_AI que utiliza Autonomous Database.

  • Puede enviar peticiones de datos en varios idiomas. La calidad del resultado depende de las capacidades del LLM específico o del modelo de inserción (transformador) que se esté utilizando. Consulte su LLM o incruste la documentación del modelo para obtener soporte en varios idiomas.

Temas

Instrucciones de uso

Proporciona directrices de uso para ayudar en el uso de Select AI para la generación de SQL en lenguaje natural.

Uso previsto

Esta función genera, ejecuta y explica consultas SQL a partir de peticiones de datos en lenguaje natural proporcionadas por el usuario. Automatiza las tareas que los usuarios realizarían manualmente utilizando sus metadatos de esquema y un modelo de lenguaje grande (LLM) de su elección. Además, facilita la generación aumentada de recuperación con almacenes vectoriales y permite chatear con el LLM.

En función de la acción Select AI que especifique, proporciona una petición de datos, ya sea para la generación de SQL, RAG o chat de transferencia, y Select AI automatiza la interacción con los LLM y la base de datos mediante interfaces SQL y PL/SQL. En concreto, genera consultas SQL a partir de lenguaje natural basadas en metadatos del esquema y las tablas especificados. Además, facilita la IA generativa basada en chat, opcionalmente mejorada con contenido de almacenes de vectores a través de la generación aumentada de recuperación (RAG) para mejorar la calidad de la respuesta. También explica las consultas SQL basadas en peticiones de datos en lenguaje natural y soporta la generación de datos sintéticos para una o varias tablas de esquema. Seleccione AI para enviar solicitudes generales con la acción chat.

Datos de aumento de petición de datos

Para la generación de consultas SQL, la base de datos aumenta la petición de datos especificada por el usuario con metadatos de la base de datos para mitigar las alucinaciones desde el LLM. La petición de datos aumentada se envía al LLM especificado por el usuario para producir la consulta. Cuando se utilizan almacenes de vectores con generación aumentada de recuperación (RAG), el contenido del almacén de vectores se recupera mediante la búsqueda de similitud semántica con la petición de datos proporcionada. Este contenido se convierte en parte de la petición de datos aumentada que se envía al LLM.

La base de datos aumenta la petición de datos solo con metadatos de esquema. Estos metadatos pueden incluir definiciones de esquema, comentarios de tabla y columna y contenido disponible en el diccionario de datos. Para la generación de SQL, la base de datos no proporciona contenido de tabla o vista (valores reales de fila o columna) al aumentar la petición de datos.

Sin embargo, la acción narrate proporciona al LLM:
  • el resultado de un lenguaje natural para la consulta SQL, que contiene datos de la base de datos, o
  • resultado de la búsqueda de similitud semántica recuperada del almacén de vectores que soporta la generación aumentada de recuperación (RAG).
El LLM utiliza estos resultados para generar una respuesta de texto en lenguaje natural.

ADVERTENCIA:

Los grandes modelos de lenguaje (LLM) se han entrenado en un amplio conjunto de documentación y contenido de texto, normalmente desde Internet. Como resultado, los LLM pueden haber incorporado patrones de contenido no válido o malicioso, incluida la inyección SQL. Por lo tanto, mientras que los LLM son expertos en generar contenido útil y relevante, también pueden generar información incorrecta y falsa, incluidas consultas SQL que producen resultados inexactos y / o comprometen la seguridad de sus datos.

Las consultas generadas en su nombre por el proveedor de LLM especificado por el usuario se ejecutarán en la base de datos. El uso que Vd. haga de esta función será a su propio riesgo e, independientemente de cualesquiera otros términos y condiciones relacionados con los Servicios prestados por Oracle, constituirá su aceptación de ese riesgo y exclusión expresa de la responsabilidad o responsabilidad de Oracle por cualesquiera daños resultantes de ese uso.

Plataformas soportadas

La selección de IA está soportada en Autonomous Database Serverless y Autonomous Database on Dedicated Exadata Infrastructure y Cloud at Customers.

  • Autonomous Database Serverless
  • Autonomous Database en infraestructura de Exadata dedicada
  • Autonomous Database en la región de infraestructura de Exadata dedicada
  • Autonomous Database Cloud@Customer

Seleccione su proveedor de IA y LLM

Elige un proveedor de IA y un LLM que cumpla con tus estándares de seguridad y se ajuste a tus necesidades específicas, como la generación de texto o código.

Los diferentes LLM sobresalen en varias tareas en función de sus datos de entrenamiento y el propósito previsto. Algunos modelos son excelentes para la generación de texto, pero pueden no funcionar bien en la generación de código, mientras que otros están específicamente optimizados para tareas de codificación. Elija un LLM que mejor se adapte a sus necesidades.

Proveedor de IA LLM Modelo de inserción para RAG Finalidad

OCI Generative AI

  • meta.llama-3.3-70b-instruct (por defecto)
  • meta.llama-3.2-90b-vision-instruct
  • meta.llama-3.2-11b-vision-instruct
  • meta.llama-3.1-70b-instruct
  • meta.llama-3.1-405b-instruct
  • cohere.command-r-08-2024
  • cohere.command-r-plus-08-2024
  • cohere.command-r-16k (en desuso)
  • cohere.command–r-plus (en desuso)
  • xai.grok-3
  • xai.grok-3-fast
  • xai.grok-3-mini
  • xai.grok-3-mini-fast
  • cohere.embed-english-v3.0 (por defecto)
  • cohere.embed-multilingual-v3.0
  • cohere.embed-english-light-v3.0
  • cohere.embed-multilingual-light-v3.0

Consulte Acerca de la incorporación de modelos en la IA generativa.

Los modelos de chat de OCI Generative AI están soportados para todas las acciones SELECT AI, como runsql, showsql, explainsql, narrate y chat.

Los modelos de texto Generar de OCI solo están soportados para la acción SELECT AI chat.

Para configurar los atributos de perfil, consulte Atributos de perfil.

Servicio OpenAI de Azure

  • GPT-4o
  • GPT-4
  • GPT-4 Turbo con Visión
  • GPT-3.5-Turbo

texto-embedding-ada-002

Se adapta mejor a la generación de SQL a partir de peticiones de datos en lenguaje natural, la acción chat y Select AI RAG.

OpenAI

  • gpt-3.5-turbo (predeterminado)
  • gpt-4o
  • gpt-4o-mini
  • gpt-4
  • gpt-4-0613
  • gpt-4-32k
  • gpt-4-32k-0613
  • gpt-3.5-turbo-0613
  • gpt-3.5-turbo-16k
  • gpt-3.5-turbo-16k-0613

texto-embedding-ada-002

Se adapta mejor a la generación de SQL a partir de peticiones de datos en lenguaje natural, la acción chat y Select AI RAG.

Compatible con OpenAI

Modelos de proveedores compatibles con OpenAI, como:
  • Fireworks AI
  • xAI
  • Otros
Incorporación de modelos de proveedores compatibles con OpenAI. Por ejemplo, consulte Modelos de incrustación de Fireworks AI.

Admite una amplia gama de casos de uso.

Cohere

  • comando (predeterminado)
  • comando-noche (experimental)
  • comando-r
  • comando-r-plus
  • luz de comandos
  • comando-luz-noche (experimental)
  • modelos personalizados

embebido-español-v2.0

Más adecuado para la acción chat.

Google

  • gemini-1.5-flash (predeterminado)
  • gemini-1.5-pro
  • gemini-1.0-pro
text-embedding-004 (por defecto)

Se adapta mejor a la generación de SQL a partir de peticiones de datos en lenguaje natural, la acción chat y Select AI RAG.

Antropología

  • claude-3-5-sonnet-20240620 (valor por defecto)
  • claude-3-opus-20240229
  • claude-3-sonnet-20240229
  • claude-3-haiku-20240307
N/D

Se adapta mejor a la generación de SQL a partir de peticiones de datos en lenguaje natural, la acción chat y Select AI RAG.

Hugging Face

  • Mixtral-8x7B-Instruct-v0.1 (predeterminado)
  • Meta-Llama-3-70B-Instruct
  • Qwen1.5-1.8B
  • otras modelos de chat
N/D

Se adapta mejor a la generación de SQL a partir de peticiones de datos en lenguaje natural, la acción chat y Select AI RAG.

AWS

  • amazon.titan-embed-text-v1
  • amazon.titan-embed-text-v2:0
  • cohere.embed-inglés-v3

Admite una amplia gama de casos de uso.

Nota

  • Especifique un proveedor compatible con OpenAI mediante provider_endpoint en lugar del parámetro provider. Consulte Atributos de perfil.

  • Para los modelos que aceptan imágenes, utilice meta.llama-3.2-90b-vision-instruct. Este modelo está específicamente entrenado para la visión y las imágenes. Aunque se puede utilizar para la generación de texto y SQL, el modelo es el más adecuado para imágenes. Para obtener más información, consulte Chat en OCI Generative AI.

    El modelo meta.llama-3.2-11b-vision-instruct proporciona sólidas capacidades multimodales.

  • Los modelos de inserción también se conocen como modelos de transformadores.