Seleziona funzioni AI
Select AI supporta le funzioni riportate di seguito.
- Seleziona conversazioni AI
Le conversazioni in Select AI si riferiscono al dialogo interattivo tra l'utente e il sistema, in cui una sequenza di prompt del linguaggio naturale forniti dall'utente viene memorizzata e gestita per supportare la memoria a lungo termine per le interazioni LLM. - Selezionare AI con Retrieval Augmented Generation (RAG)
Selezionare AI con RAG aumenta il prompt del linguaggio naturale recuperando il contenuto dalla memoria di vettore specificata utilizzando la ricerca di somiglianza semantica. Ciò riduce le allucinazioni utilizzando contenuti specifici e aggiornati e fornisce risposte al linguaggio naturale più pertinenti ai prompt. - Generazione di dati sintetici
Genera dati sintetici utilizzando generatori casuali, algoritmi, modelli statistici e LLM (Large Language Models) per simulare dati reali per lo sviluppo e il test di soluzioni in modo efficace. - Feedback
Select AI ti consente di fornire feedback per migliorare la capacità dei tuoi LLM selezionati di generare query SQL più accurate. - Genera un riepilogo con Select AI
Select AI consente di generare un riepilogo del testo, in particolare dei testi di grandi dimensioni, che in genere supporta fino a 1 GB utilizzando i provider AI. Puoi estrarre insight chiave da testi o file di grandi dimensioni in base alle tue esigenze specifiche. Questa funzione utilizza l'LLM specificato nel profilo AI per generare un riepilogo per un determinato testo. - Traduci
Con Select AI, puoi utilizzare l'AI generativa del servizio di traduzione OCI per tradurre il tuo testo nella lingua che preferisci. - Accesso agli endpoint privati per selezionare i modelli AI
Puoi abilitare l'accesso sicuro e privato AI modelli di AI generativa distribuendo Ollama o Llama.cpp dietro un endpoint privato all'interno della tua rete cloud virtuale (VCN). Questa architettura è progettata per le organizzazioni che devono mantenere l'elaborazione dell'intelligenza artificiale completamente privata. L'impostazione isola sia Autonomous AI Database Serverless che i server dei modelli AI dalla rete Internet pubblica utilizzando subnet private, liste di sicurezza e instradamento controllato.
Accesso endpoint privato per la selezione dei modelli AI
Puoi abilitare l'accesso sicuro e privato AI modelli di AI generativa distribuendo Ollama o Llama.cpp dietro un endpoint privato all'interno della tua rete cloud virtuale (VCN). Questa architettura è progettata per le organizzazioni che devono mantenere l'elaborazione dell'intelligenza artificiale completamente privata. L'impostazione isola sia Autonomous AI Database Serverless che i server dei modelli AI dalla rete Internet pubblica utilizzando subnet private, liste di sicurezza e instradamento controllato.
L'impostazione utilizza un server di salto in una subnet pubblica per l'accesso SSH sicuro, mentre i modelli di database e AI vengono eseguiti in subnet private connesse tramite gateway Internet, gateway di servizi e gateway NAT.
Puoi creare una VCN, configurare subnet e gateway e impostare regole di sicurezza che consentano solo il traffico interno. Per ulteriori informazioni, vedere Impostazione di un endpoint privato per i modelli AI utilizzando Ollama e Llama.cpp. Il documento descrive l'installazione di Ollama e Llama.cpp, la configurazione di un endpoint API privato utilizzando Nginx come proxy inverso e la convalida della connettività da Autonomous AI Database. Questa configurazione garantisce che tutta l'elaborazione AI venga eseguita privatamente all'interno del limite di rete, consentendo a Select AI di integrare le funzionalità del modello mantenendo al contempo i dati sensibili sicuri e completamente isolati.
Argomento padre: Selezionare le funzioni AI