Sélectionner des fonctionnalités d'IA
Select AI prend en charge les fonctionnalités suivantes.
- Sélectionner des conversations AI
Les conversations dans Select AI font référence au dialogue interactif entre l'utilisateur et le système, où une séquence d'invites en langage naturel fournies par l'utilisateur est stockée et gérée pour prendre en charge la mémoire à long terme pour les interactions LLM. - Sélectionner l'IA avec la génération augmentée d'extraction (RAG)
Sélectionnez l'IA avec la RAG pour augmenter votre invite en langage naturel en extrayant le contenu de votre banque de vecteurs spécifiée à l'aide de la recherche de similarité sémantique. Cela réduit les hallucinations en utilisant votre contenu spécifique et à jour et fournit des réponses en langage naturel plus pertinentes à vos invites. - Génération de données synthétiques
Créez des données synthétiques à l'aide de générateurs aléatoires, d'algorithmes, de modèles statistiques et de grands modèles de langage (LLM) pour simuler des données réelles afin de développer et de tester efficacement des solutions. - Commentaires
Select AI vous permet de fournir des commentaires pour améliorer la capacité de votre LLM sélectionné à générer des requêtes SQL plus précises. - Générer un récapitulatif avec Select AI
Select AI vous permet de générer un récapitulatif de votre texte, en particulier des textes volumineux, prenant généralement en charge jusqu'à 1 Go à l'aide de fournisseurs d'IA. Vous pouvez extraire des informations clés de textes ou de fichiers volumineux en fonction de vos besoins spécifiques. Cette fonctionnalité utilise le LLM spécifié dans votre profil AI pour générer un récapitulatif pour un texte donné. - Traduire
Avec Select AI, vous pouvez utiliser l'IA générative du service de traduction OCI pour traduire votre texte dans la langue de votre choix. - Accès aux adresses privées pour certains modèles d'IA
Vous pouvez activer l'accès privé sécurisé aux modèles d'IA générative en déployant Ollama ou Llama.cpp derrière une adresse privée au sein de votre réseau cloud virtuel (VCN). Cette architecture est conçue pour les entreprises qui doivent garder le traitement de l'IA entièrement privé. La configuration isole à la fois les serveurs Autonomous AI Database Serverless et vos serveurs de modèle AI du réseau Internet public à l'aide de sous-réseaux privés, de listes de sécurité et de routage contrôlé.
Accès à l'adresse privée pour certains modèles AI
Vous pouvez activer l'accès privé et sécurisé aux modèles d'IA générative en déployant Ollama ou Llama.cpp derrière une adresse privée au sein de votre réseau cloud virtuel (VCN). Cette architecture est conçue pour les entreprises qui doivent garder le traitement de l'IA entièrement privé. La configuration isole à la fois les serveurs Autonomous AI Database Serverless et vos serveurs de modèle AI du réseau Internet public à l'aide de sous-réseaux privés, de listes de sécurité et de routage contrôlé.
La configuration utilise un serveur de saut dans un sous-réseau public pour un accès SSH sécurisé, tandis que la base de données et les modèles AI s'exécutent dans des sous-réseaux privés connectés via la passerelle Internet, la passerelle de service et la passerelle NAT.
Vous créez un VCN, configurez des sous-réseaux et des passerelles, et configurez des règles de sécurité qui autorisent uniquement le trafic interne. Pour plus d'informations, reportez-vous à Configuration d'une adresse privée pour les modèles d'IA à l'aide d'Ollama et de Llama.cpp. Le document vous guide tout au long de l'installation d'Ollama et de Llama.cpp, de la configuration d'une adresse d'API privée à l'aide de Nginx en tant que proxy inverse et de la validation de la connectivité à partir d'Autonomous AI Database. Cette configuration garantit que tous les traitements d'IA sont effectués en privé dans les limites de votre réseau, ce qui permet à Select AI d'intégrer des fonctionnalités de modèle tout en gardant les données sensibles sécurisées et entièrement isolées.
Rubrique parent : Sélectionner des fonctionnalités AI