Seleziona funzioni AI

Select AI supporta le funzioni riportate di seguito.

Accesso endpoint privato per la selezione dei modelli AI

Puoi abilitare l'accesso sicuro e privato AI modelli di AI generativa distribuendo Ollama o Llama.cpp dietro un endpoint privato all'interno della tua rete cloud virtuale (VCN). Questa architettura è progettata per le organizzazioni che devono mantenere l'elaborazione dell'intelligenza artificiale completamente privata. L'impostazione isola sia Autonomous AI Database Serverless che i server dei modelli AI dalla rete Internet pubblica utilizzando subnet private, liste di sicurezza e instradamento controllato.

L'impostazione utilizza un server di salto in una subnet pubblica per l'accesso SSH sicuro, mentre i modelli di database e AI vengono eseguiti in subnet private connesse tramite gateway Internet, gateway di servizi e gateway NAT.

Puoi creare una VCN, configurare subnet e gateway e impostare regole di sicurezza che consentano solo il traffico interno. Per ulteriori informazioni, vedere Impostazione di un endpoint privato per i modelli AI utilizzando Ollama e Llama.cpp. Il documento descrive l'installazione di Ollama e Llama.cpp, la configurazione di un endpoint API privato utilizzando Nginx come proxy inverso e la convalida della connettività da Autonomous AI Database. Questa configurazione garantisce che tutta l'elaborazione AI venga eseguita privatamente all'interno del limite di rete, consentendo a Select AI di integrare le funzionalità del modello mantenendo al contempo i dati sensibili sicuri e completamente isolati.