AI-Features auswählen
Select AI unterstützt die folgenden Features.
- KI-Unterhaltungen auswählen
Unterhaltungen in Select AI beziehen sich auf den interaktiven Dialog zwischen dem Benutzer und dem System, in dem eine Reihe von vom Benutzer bereitgestellten Eingabeaufforderungen in natürlicher Sprache gespeichert und verwaltet wird, um den Langzeitgedächtnis für LLM-Interaktionen zu unterstützen. - AI mit Retrieval Augmented Generation (RAG) auswählen
Wählen Sie AI mit RAG, um Ihre Eingabeaufforderung in natürlicher Sprache zu erweitern, indem Sie mithilfe der semantischen Ähnlichkeitssuche Inhalte aus Ihrem angegebenen Vektorspeicher abrufen. Dies reduziert Halluzinationen durch die Verwendung Ihrer spezifischen und aktuellen Inhalte und bietet relevantere Antworten in natürlicher Sprache auf Ihre Prompts. - Synthetische Datengenerierung
Generieren Sie synthetische Daten mithilfe von Zufallsgeneratoren, Algorithmen, statistischen Modellen und Large Language Models (LLMs), um echte Daten für die effektive Entwicklung und das Testen von Lösungen zu simulieren. - Feedback
Mit Select AI können Sie Feedback geben, um die Fähigkeit Ihres ausgewählten LLM zu verbessern, genauere SQL-Abfragen zu generieren. - Zusammenfassung mit ausgewählter KI generieren
Mit Select AI können Sie eine Zusammenfassung Ihres Texts generieren, insbesondere großer Texte, die in der Regel bis zu 1 GB mit KI-Providern unterstützen. Sie können wichtige Erkenntnisse aus Texten oder großen Dateien nach Ihren spezifischen Anforderungen extrahieren. Dieses Feature verwendet das in Ihrem KI-Profil angegebene LLM, um eine Übersicht für einen bestimmten Text zu generieren. - Translate
Mit Select AI können Sie generative KI aus dem OCI-Übersetzungsservice verwenden, um Ihren Text in die Sprache Ihrer Wahl zu übersetzen. - Privater Endpunktzugriff für ausgewählte KI-Modelle
Sie können einen sicheren, privaten Zugriff auf generative KI-Modelle aktivieren, indem Sie Ollama oder Llama.cpp hinter einem privaten Endpunkt in Ihrem virtuellen Cloud-Netzwerk (VCN) bereitstellen. Diese Architektur richtet sich an Unternehmen, die KI-Verarbeitung vollständig privat halten müssen. Das Setup isoliert sowohl die Serverless-Datenbank der autonomen KI als auch Ihre KI-Modellserver mit privaten Subnetzen, Sicherheitslisten und kontrolliertem Routing vom öffentlichen Internet.
Übergeordnetes Thema: Select AI für Natural Language Interaction mit Ihrer Datenbank verwenden
Privater Endpunktzugriff für ausgewählte KI-Modelle
Sie können einen sicheren, privaten Zugriff auf generative KI-Modelle aktivieren, indem Sie Ollama oder Llama.cpp hinter einem privaten Endpunkt in Ihrem virtuellen Cloud-Netzwerk (VCN) bereitstellen. Diese Architektur richtet sich an Unternehmen, die KI-Verarbeitung vollständig privat halten müssen. Das Setup isoliert sowohl die Serverless-Datenbank der autonomen KI als auch Ihre KI-Modellserver mit privaten Subnetzen, Sicherheitslisten und kontrolliertem Routing vom öffentlichen Internet.
Das Setup verwendet einen Sprungserver in einem öffentlichen Subnetz für sicheren SSH-Zugriff, während die Datenbank- und AI-Modelle in privaten Subnetzen ausgeführt werden, die über Internetgateway, Servicegateway und NAT-Gateway verbunden sind.
Sie erstellen ein VCN, konfigurieren Subnetze und Gateways und richten Sicherheitsregeln ein, die nur internen Traffic zulassen. Weitere Informationen finden Sie unter Privaten Endpunkt für KI-Modelle mit Ollama und Llama.cpp einrichten. Das Dokument führt Sie durch die Installation von Ollama und Llama.cpp, die Konfiguration eines privaten API-Endpunkts mit Nginx als Reverse Proxy und die Validierung der Konnektivität aus der autonomen KI-Datenbank. Diese Konfiguration stellt sicher, dass die gesamte KI-Verarbeitung privat innerhalb Ihrer Netzwerkgrenze erfolgt. Dadurch kann Select AI Modellfunktionen integrieren und gleichzeitig sensible Daten sicher und vollständig isoliert halten.
Übergeordnetes Thema: KI-Features auswählen