Selecionar Recursos de IA
O Select AI suporta os seguintes recursos.
- Selecionar Conversas de IA
As conversações no Select AI referem-se à caixa de diálogo interativa entre o usuário e o sistema, na qual uma sequência de prompts de linguagem natural fornecidos pelo usuário é armazenada e gerenciada para suportar memória de longo prazo para interações de LLM. - Selecione AI com Geração Aumentada de Recuperação (RAG)
Selecione AI com RAG aumenta seu prompt de linguagem natural recuperando conteúdo do armazenamento de vetores especificado usando pesquisa de similaridade semântica. Isso reduz as alucinações usando seu conteúdo específico e atualizado e fornece respostas em linguagem natural mais relevantes aos seus prompts. - Geração de Dados Sintéticos
Gere dados sintéticos usando geradores aleatórios, algoritmos, modelos estatísticos e Grandes Modelos de Linguagem (LLMs) para simular dados reais para desenvolver e testar soluções de forma eficaz. - Feedback
A Select AI permite que você forneça feedback para ajudar a melhorar a capacidade do seu LLM selecionado de gerar consultas SQL mais precisas. - Gerar um Resumo com o Select AI
Selecionar IA permite gerar um resumo do seu texto, especialmente textos grandes, geralmente com suporte de até 1 GB usando provedores de IA. Você pode extrair insights importantes de textos ou arquivos grandes de acordo com suas necessidades específicas. Esse recurso usa o LLM especificado em seu perfil de IA para gerar um resumo de um determinado texto. - Traduzir
Com a Select AI, você pode usar a IA generativa do serviço de tradução da OCI para traduzir seu texto para o idioma de sua escolha. - Acesso de Ponto Final Privado para Modelos de IA Selecionados
Você pode permitir acesso seguro e privado a modelos de IA generativa implantando o Ollama ou Llama.cpp por trás de um ponto final privado em sua VCN (Rede Virtual na Nuvem). Essa arquitetura foi projetada para organizações que precisam manter o processamento de IA totalmente privado. A configuração isola o Autonomous AI Database Serverless e seus servidores de modelo de IA da internet pública usando sub-redes privadas, listas de segurança e roteamento controlado.
Acesso ao Ponto Final Privado para Selecionar Modelos de IA
Você pode permitir acesso seguro e privado a modelos de IA generativa implantando o Ollama ou o Llama.cpp por trás de um ponto final privado em sua VCN (Virtual Cloud Network). Essa arquitetura foi projetada para organizações que precisam manter o processamento de IA totalmente privado. A configuração isola o Autonomous AI Database Serverless e seus servidores de modelo de IA da internet pública usando sub-redes privadas, listas de segurança e roteamento controlado.
A configuração usa um servidor jump em uma sub-rede pública para acesso SSH seguro, enquanto os modelos de banco de dados e AI são executados em sub-redes privadas conectadas por meio do Gateway de Internet, do Gateway de Serviço e do Gateway NAT.
Você cria uma VCN, configura sub-redes e gateways e configura regras de segurança que permitem apenas tráfego interno. Consulte Configurando um ponto final privado para modelos de IA usando o Ollama e o Llama.cpp para obter mais informações. O documento orienta você na instalação do Ollama e do Llama.cpp, na configuração de um ponto final de API privado usando o Nginx como um proxy reverso e na validação da conectividade do Autonomous AI Database. Essa configuração garante que todo o processamento de IA ocorra de forma privada dentro do limite da sua rede, permitindo que o Select AI integre recursos de modelo enquanto mantém dados confidenciais seguros e totalmente isolados.
Tópico principal: Selecionar Recursos de IA