Crear un perfil de IA

Data Studio simplifica la creación de perfiles de IA de manera guiada. Seleccione un modo en la configuración de Perfil de IA y Data Studio le ayudará a crear el perfil de IA con unos pocos clics.

Pasos para crear un perfil de IA

Para abrir Configuración de Data Studio, vaya a cualquier herramienta y haga clic en el icono de engranaje con la etiqueta Configuración en el panel de navegación de la izquierda.

  1. En Configuración de Data Studio, vaya al separador Perfil de AI.

  2. Haga clic en Validar para comprobar que se puede acceder al servicio de IA generativa y que el perfil de IA funciona correctamente.

  3. Haga clic en el botón más (+) situado junto al nombre de perfil de AI y seleccione un modo.

    • Crear perfil de IA esencial: para crear un perfil de IA básico con funciones limitadas.

    • Crear perfil de IA NL2SQL: para utilizar listas de objetos de metadatos de tabla para generar consultas.

    • Crear perfil de IA de RAG: para utilizar el índice vectorial para la búsqueda semántica en datos no estructurados.

    Abre la página Crear perfil de AI y proporciona la configuración para el modo específico.

  4. Especifique la configuración de servicio obligatoria para el perfil de AI.

    • Nombre de perfil: introduzca un nombre para el perfil de AI. No puede modificar el nombre después de crear el perfil.

    • Proveedor de IA: seleccione el proveedor de servicios de IA:

      • OCI
      • IA abierta
      • Servicio OpenAI de Azure
      • Cohere
      • Google
      • Antropología
      • Hugging Face

      No puede modificar el proveedor de IA después de crear el perfil.

    • Credencial: seleccione la credencial para acceder a las API del proveedor de servicios de API. Estos se almacenan en la base de datos y ayudan a conectarse de forma segura a proveedores de servicios de IA externos.

    • Región de OCI: ubicación del cluster de IA generativa que desea utilizar.

      Cada región de OCI soporta diferentes LLM, por ejemplo, us-chicago-1, uk-london-1 y ap-osaka-1 ofrece muchos LLM, mientras que otros tienen menos. La página muestra los modelos que están disponibles en la región seleccionada. Si no aparece un modelo de AI, puede cambiar de región para refrescar la lista de modelos.

      Este campo solo está disponible si selecciona OCI como proveedor de IA. Para obtener más información, consulte Regiones con IA generativa, Modelos fundamentales previamente entrenados en IA generativa.

    • Modelo de IA: seleccione el modelo de IA que desea utilizar para generar respuestas. Los modelos de IA disponibles para su uso dependen del proveedor de IA que haya seleccionado.

    Puede utilizar el botón de alternancia Mostrar código para ver la sentencia SQL generada automáticamente para la configuración seleccionada.

  5. En Configuración avanzada, puede proporcionar atributos adicionales.

    • Configuración de servicio

      Proporcione la configuración de los servicios en la nube que puede utilizar el perfil de AI. Configuración de servicio solo está disponible para OCI y Azure OpenAI Service. Según el proveedor de AI seleccionado, la página muestra la configuración de servicio correspondiente:

      Si selecciona OCI como proveedor de IA, puede configurar lo siguiente:

      • Formato de API de OCI: seleccione el formato que puede utilizar la API para enviar y recibir datos. Este atributo se aplica a los modelos de chat de OCI Generative AI. Los valores son Ninguno, Aquí, Generic.

      • ID de compartimento de OCI: especifique el OCID del compartimento al que desea acceder para utilizar el servicio OCI Generative AI. El valor por defecto es el ID de compartimento de la base de datos conectable (PDB).

      • ID de punto final de OCI: indica el OCID del punto final en un cluster de AI dedicado. Especifique este campo para utilizar un punto final dedicado en lugar de un modelo bajo demanda en una infraestructura compartida.

      Si selecciona Azure OpenAI Service como proveedor de IA, puede configurar lo siguiente:

      • Nombre de recurso de Azure: introduzca un nombre para la instancia de recurso de servicio de Azure OpenAI. Forma parte de la URL de punto final para acceder al servicio. Por ejemplo:

        https://[your-resource-name].openai.azure.com/
      • Nombre de despliegue de Azure: introduzca un nombre para el modelo de idioma que desea desplegar en el recurso de Azure OpenAI.

      • Nombre de despliegue de embebido de Azure: especifique un nombre para el modelo de embebido desplegado, por ejemplo, text-embedding-ada-002, text-embedding-3-large, etc. Esto se utiliza principalmente para crear la representación vectorial del texto.

      Para obtener más información, consulte Habilidad de Azure OpenAI Embedding - Búsqueda de IA de Azure | Microsoft Learn.

    • Configuración de generación

      Proporcione la configuración de los servicios de IA generativa que puede usar el perfil de IA.

      Puede configurar el comportamiento y los límites del modelo de AI al que se accede mediante el perfil de AI. Permite la personalización para diferentes escenarios, como el chat de IA generativa, la generación de SQL o las consultas de lenguaje natural en la base de datos de IA autónoma.

      • Conversación: normalmente indica si el perfil de IA admite contexto conversacional, lo que permite al modelo retener el contexto en varias interacciones o solicitar intercambios, lo que resulta útil para aplicaciones de IA de estilo chat.

      • Valores sensibles a mayúsculas/minúsculas: este valor indica si el procesamiento de AI debe tratar los valores o parámetros de entrada como sensibles a mayúsculas/minúsculas. Active esta opción para aplicar mayúsculas/minúsculas exactas para entradas y valores de parámetros.

      • Temperatura: parámetro de control deslizante que controla la aleatoriedad en las respuestas de la IA. Una temperatura más baja (por ejemplo, 0,2) hace que la salida sea más enfocada y determinista, mientras que una temperatura más alta (por ejemplo, 0,8) produce una generación de texto más creativa y diversa.

      • Parar tokens: son secuencias de tokens que indican al modelo AI dónde dejar de generar más salida de texto. Cuando el modelo genera cualquiera de estos tokens, se detiene. Esto ayuda a controlar la longitud de la respuesta y a evitar el texto final no deseado.

      • Máximo de tokens: define el número máximo de tokens que puede generar el modelo de AI en respuesta a una petición de datos. Limita la longitud de la salida generada para evitar respuestas excesivamente largas o costosas.

      • Idioma de destino: seleccione el idioma que utiliza el proveedor de IA para responder.

      • Idioma de origen: seleccione el idioma que acepta el proveedor de IA en el texto de entrada.

Si seleccionó Perfil de IA esencial, haga clic en Crear perfil de IA para crear un perfil de IA básico.

Configuración de NL2SQL

Para crear un perfil de AI NL2SQL, especifique los siguientes metadatos de tabla.

  • Modo de lista de objetos: seleccione una de las siguientes opciones.

    • Todo: esta opción envía metadatos para todas las tablas de los esquemas especificados al LLM, para que pueda generar SQL en cualquiera de ellos.

    • Automatizado: esta opción permite seleccionar automáticamente un subjuego de tablas relevantes mediante la ejecución de la búsqueda vectorial en metadatos de esquema, por lo que solo se utilizan las tablas más probables para una petición de datos determinada.

    • Tablas seleccionadas: esta opción limita los metadatos solo a las tablas específicas que se muestran en el perfil de AI, por lo que la generación de SQL está restringida a esas tablas.

    • Ninguno: esta opción no envía metadatos de tabla de una lista de objetos, por lo que AI no puede generar SQL en tablas ni depender de otra configuración que no utilice una lista de objetos explícita.
  • Lista de objetos: especifique los objetos de base de datos que puede utilizar el LLM.

    Al seleccionar esta opción, se muestra otra opción Aplicar lista de objetos. Active esta opción para restringir el LLM para generar consultas SQL utilizando solo los objetos mencionados en la lista de objetos.

  • Anotaciones: active esta opción para permitir que AI proporcione metadatos adicionales sobre los objetos de base de datos al generar resultados, por ejemplo, descripciones de columnas o etiquetas.

  • Comentarios: active esta opción para permitir que AI utilice los comentarios de tabla y columna del diccionario de datos para comprender mejor los datos.

  • Restricciones: active esta opción para permitir que la IA acceda a información sobre claves primarias, claves ajenas y otras restricciones, y comprenda la relación entre tablas para mejorar la precisión de las consultas.

Si ha seleccionado el modo NL2SQL, haga clic en Crear perfil de AI para crear el perfil de AI para NL2SQL.

Configuración de RAG

Para un perfil de AI de RAG, especifique lo siguiente:

  • Índice de vector: seleccione el índice de vector que se va a utilizar para almacenar y buscar las incrustaciones en los documentos. Esto permite a la IA utilizar los vectores de la base de datos y encontrar una respuesta precisa para la consulta. Consulte Creación de Índice de Vector para obtener más información.
  • Modelo de embebido: especifica qué modelo de embebido se utiliza para convertir el texto en representaciones vectoriales que se almacenan en ese índice, lo que garantiza que el comportamiento de búsqueda semántica coincida con el modelo que configure para RAG.

  • Activar orígenes: active esta opción para incluir los enlaces de documento de origen o los nombres de archivo que han contribuido al resultado de RAG.

  • Activar desplazamiento de origen: active esta opción para incluir las desviaciones de inicio y finalización en el texto convertido del documento en el resultado de RAG.

  • Activar URI de origen personalizado: active esta opción para especificar un URI de origen personalizado que se muestre en el resultado de RAG en lugar de en la URL de Object Storage.

Si seleccionó el modo RAG, haga clic en Crear perfil de AI para crear el perfil de AI para RAG.

Consulte también:

Gestionar perfiles de IA