Selecionar Conceitos de IA

Explora os conceitos e termos relacionados ao Select AI.

Ações

Uma ação no Select AI é uma palavra-chave que instrui o Select AI a executar um comportamento diferente ao agir no prompt. Ao especificar uma ação, os usuários podem instruir o Select AI a processar seu prompt de linguagem natural para gerar código SQL, responder a um prompt de chat, narrar a saída, exibir a instrução SQL ou explicar o código SQL, aproveitando os LLMs para interagir com eficiência com os dados em seu ambiente de banco de dados.

Consulte Usar Palavra-chave AI para Inserir Prompts para obter as ações Selecionar IA suportadas.

Perfil de IA

Perfil de IA é uma especificação que inclui o provedor de IA a ser usado e outros detalhes sobre metadados e objetos de banco de dados necessários para gerar respostas a prompts de linguagem natural. Consulte CREATE_PROFILE Procedure e Atributos de Perfil.

Provedor de IA

Um Provedor de IA no Select AI se refere ao provedor de serviços que fornece o LLM ou o transformador, ou ambos, para processar e gerar respostas a prompts de linguagem natural. Esses provedores oferecem modelos que podem interpretar e converter linguagem natural para os casos de uso destacados no conceito de LLM. Consulte Selecionar seu Provedor de IA e LLMs para os provedores suportados.

Conversas

As conversas no Select AI representam uma troca interativa entre o usuário e o sistema, permitindo que os usuários consultem ou interajam com o banco de dados por meio de uma série de prompts de linguagem natural. O Select AI incorpora até 10 prompts anteriores à solicitação atual por meio de conversas baseadas em sessão, criando um prompt aumentado enviado ao LLM. O Select AI suporta várias conversas personalizáveis que podem ser configuradas por meio de APIs de conversa no Pacote DBMS_CLOUD_AI. Consulte Selecionar Conversas de IA.

Credenciais do Banco de Dados

Credenciais de banco de dados são credenciais de autenticação usadas para acessar e interagir com bancos de dados. Eles geralmente consistem em um nome de usuário e uma senha, às vezes complementados por fatores de autenticação adicionais, como tokens de segurança. Essas credenciais são usadas para estabelecer uma conexão segura entre um aplicativo ou usuário e um banco de dados, de modo que somente indivíduos ou sistemas autorizados possam acessar e manipular os dados armazenados no banco de dados.

Alucinação em LLM

Alucinação no contexto de Grandes Modelos de Linguagem refere-se a um fenômeno em que o modelo gera texto incorreto, sem sentido ou não relacionado ao prompt de entrada. Apesar de ser um resultado da tentativa do modelo de gerar texto coerente, essas respostas podem conter informações que são fabricadas, enganosas ou puramente imaginativas. A alucinação pode ocorrer devido a vieses nos dados de treinamento, falta de compreensão adequada do contexto ou limitações no processo de treinamento do modelo.

IAM

O Oracle Cloud IAM (Identity and Access Management) permite controlar quem tem acesso a seus recursos na nuvem. Você pode controlar que tipo de acesso um grupo de usuários tem e a quais recursos específicos. Para saber mais, consulte Visão Geral do Gerenciamento de Identidades e Acesso.

Refinamento iterativo

O refinamento iterativo é um processo de melhoria gradual de uma solução ou de um modelo através de ciclos repetidos de ajustes baseados em feedback ou avaliação. Começa com uma aproximação inicial, refina-a passo a passo e continua até que a precisão ou o resultado desejado seja alcançado. Cada iteração se baseia na anterior, incorporando correções ou otimizações para se aproximar da meta.

Na geração de resumo de texto, o refinamento iterativo pode ser útil para processar arquivos ou documentos grandes. O processo divide o texto em blocos de tamanho gerenciável, por exemplo, que se encaixam nos limites de token de um LLM, gera um resumo para um bloco e, em seguida, melhora o resumo incorporando sequencialmente os seguintes blocos.

Casos de uso para refinamento iterativo:

  • Mais adequado para situações em que a precisão contextual e a coerência são críticas, como ao resumir textos complexos ou altamente interconectados, onde cada parte se baseia no anterior.
  • Ideal para tarefas de menor escala em que o processamento sequencial é aceitável.

Consulte Técnicas de Consolidação.

Modelo de Linguagem Grande (LLM)

Um Modelo de Linguagem Grande (LLM) refere-se a um tipo avançado de modelo de inteligência artificial que é treinado em grandes quantidades de dados de texto para suportar uma variedade de casos de uso, dependendo de seus dados de treinamento. Isso inclui entender e gerar linguagem semelhante à humana, bem como consultas de código de software e banco de dados. Esses modelos são capazes de realizar uma ampla gama de tarefas de processamento de linguagem natural, incluindo geração de texto, tradução, sumarização, resposta a perguntas, análise de sentimentos e muito mais. Os LLMs geralmente se baseiam em modelos sofisticados de rede neural de aprendizado profundo que aprendem padrões, contexto e semântica a partir dos dados de entrada, permitindo que eles gerem texto coerente e contextualmente relevante.

MapReduce

Em geral, o modelo de programação MapReduce permite processar dados de grande volume dividindo tarefas em duas fases: Mapear e Reduzir.
  • Mapear: Processa dados de entrada e os transforma em pares de chave/valor.
  • Reduzir: Agrega e resume os dados mapeados com base em chaves. MapReduce executa o processamento paralelo de grandes conjuntos de dados.

No caso do Select AI Summarize, o MapReduce particiona o texto em vários chunks e os processa em paralelo e de forma independente, gerando resumos individuais para cada chunks. Estes resumos são então combinados para formar um resumo geral coeso.

Os casos de uso para mapa reduzem:

  • Mais adequado para tarefas paralelas em larga escala em que velocidade e escalabilidade são prioridades, como resumir conjuntos de dados ou documentos muito grandes.
  • Ideal para situações em que a independência do bloco é aceitável, e os resumos podem ser agregados mais tarde.

Consulte Técnicas de Consolidação.

Metadata

Os metadados do banco de dados referem-se aos dados que descrevem a estrutura, a organização e as propriedades das tabelas e views do banco de dados.

Clone de Metadados

Um clone de metadados ou um clone do Autonomous AI Database cria uma cópia de metadados que definem o banco de dados ou o esquema, contendo apenas a estrutura, não os dados reais. Esse clone inclui tabelas, índices, visualizações, estatísticas, procedimentos e acionadores sem linhas de dados. Desenvolvedores, testadores ou aqueles que criam modelos de banco de dados acham isso útil. Para saber mais, consulte Clonar, Mover ou Fazer Upgrade de uma Instância do Autonomous AI Database.

Prompts de Linguagem Natural

Os Prompts de Linguagem Natural são instruções legíveis por humanos ou solicitações fornecidas para orientar modelos de IA generativa, como Grandes Modelos de Linguagem. Em vez de usar linguagens de programação ou comandos específicos, os usuários podem interagir com esses modelos inserindo prompts em uma forma de linguagem natural ou de conversação. Em seguida, os modelos geram a saída com base no prompt fornecido.

Lista de Controle de Acesso à Rede (ACL)

Uma Lista de Controle de Acesso à Rede é um conjunto de regras ou permissões que definem qual tráfego de rede pode passar por um dispositivo de rede, como um roteador, firewall ou gateway. As ACLs são usadas para controlar e filtrar o tráfego de entrada e saída com base em vários critérios, como endereços IP, números de porta e protocolos. Eles desempenham um papel crucial na segurança da rede, permitindo que os administradores gerenciem e restrinjam o tráfego da rede para evitar acesso não autorizado, possíveis ataques e violações de dados.

Geração Aumentada de Recuperações (RAG)

A Geração Aumentada de Recuperação (RAG) é uma técnica que envolve a recuperação de informações relevantes para a consulta de um usuário e o fornecimento dessas informações a um grande modelo de linguagem (LLM) para melhorar as respostas e reduzir a alucinação.

Mais comumente, o RAG envolve pesquisa vetorial, mas de forma mais geral, inclui o aumento de um prompt de conteúdo de banco de dados (manualmente ou automaticamente), como metadados de esquema para geração de SQL ou conteúdo de banco de dados consultado explicitamente. Outras formas de aumento podem envolver tecnologias como análise de gráficos e machine learning tradicional.

Pesquisa de Similaridade Semântica

A pesquisa de similaridade semântica identifica e recupera pontos de dados que correspondem de perto a uma determinada consulta, comparando vetores de recursos em um armazenamento de vetores.

Distância Vetorial

A distância vetorial mede a similaridade ou dissimilaridade entre vetores de características, calculando a distância entre eles em um espaço multidimensional.

Índice Vetorial

Um índice vetorial organiza e armazena vetores para permitir a pesquisa e a recuperação eficientes de similaridade de dados relacionados.

Loja de vetores

Um armazenamento de vetores inclui sistemas que armazenam, gerenciam e permitem a pesquisa de similaridade semântica envolvendo incorporações de vetores. Isso inclui bancos de dados vetoriais independentes e o Oracle AI Database 26ai AI Vector Search.