Informazioni su Select AI

Utilizza il linguaggio naturale per interagire con il tuo database e i tuoi LLM tramite SQL per migliorare la produttività degli utenti e sviluppare applicazioni basate sull'intelligenza artificiale. Select AI semplifica e automatizza l'utilizzo dell'intelligenza artificiale generativa, generando, eseguendo e spiegando SQL da un prompt del linguaggio naturale, utilizzando la generazione aumentata di recupero con aree di memorizzazione vettoriali, generando dati sintetici o chattando con l'LLM.

Quando si utilizza Select AI, Autonomous Database gestisce il processo di conversione del linguaggio naturale in SQL. Ciò significa che puoi fornire un prompt in linguaggio naturale anziché un codice SQL per interagire con i tuoi dati. Select AI funge da strumento di produttività per utenti e sviluppatori SQL e consente agli utenti SQL non esperti di ricavare insight utili dai propri dati, senza dover comprendere le strutture dei dati o i linguaggi tecnici.

Select AI automatizza anche il processo di recupero della generazione aumentata (RAG) dalla generazione di incorporamenti vettoriali al recupero di contenuti pertinenti in base al prompt attraverso la ricerca di somiglianza semantica utilizzando il tuo archivio vettoriale. Altre funzioni includono la generazione di dati sintetici, il supporto della cronologia delle chat per le conversazioni e altre funzioni, il tutto da un'interfaccia SQL.

Il package DBMS_CLOUD_AI consente l'integrazione con un LLM specificato dall'utente per la generazione di codice SQL utilizzando prompt in linguaggio naturale. Per la generazione da linguaggio naturale a SQL, questo pacchetto fornisce un prompt aumentato all'LLM contenente i metadati dello schema di database pertinenti. Ciò consente di generare, eseguire e spiegare le query SQL in base ai prompt del linguaggio naturale. Inoltre facilita il recupero della generazione aumentata utilizzando archivi vettoriali, la generazione di dati sintetici e consente di chattare con l'LLM. Il pacchetto DBMS_CLOUD_AI funziona con i provider AI elencati nella sezione Selezionare il provider AI e gli LLM.
Nota

  • È necessario disporre di un account con il provider AI e fornire le credenziali tramite gli oggetti DBMS_CLOUD_AI utilizzati da Autonomous Database.

  • È possibile sottomettere prompt in più lingue. La qualità del risultato dipende dalle capacità dello specifico LLM o del modello di incorporamento (trasformatore) utilizzato. Controlla il tuo LLM o la documentazione del modello di incorporamento per il supporto multilingua.

Argomenti

Istruzioni per l'uso

Fornisce le istruzioni d'uso per facilitare l'uso di Select AI per la generazione da linguaggio naturale a SQL.

Destinazione d'uso

Questa funzione genera, esegue e spiega le query SQL dai prompt del linguaggio naturale forniti dall'utente. Automatizza le attività che gli utenti altrimenti eseguiranno manualmente utilizzando i metadati dello schema e un modello LLM (Large Language Model) di loro scelta. Inoltre, facilita il recupero della generazione aumentata con negozi vettoriali e consente di chattare con l'LLM.

A seconda dell'azione Seleziona AI specificata, viene fornito un prompt, che si tratti di generazione del linguaggio naturale, RAG o chat pass-through, e Select AI automatizza l'interazione con LLM e il database utilizzando interfacce SQL e PL/SQL. In particolare, genera query SQL dal linguaggio naturale in base ai metadati dello schema e delle tabelle specificati. Inoltre, facilita l'intelligenza artificiale generativa basata su chat, facoltativamente migliorata con i contenuti dei negozi vettoriali attraverso la generazione aumentata di recupero (RAG) per una migliore qualità della risposta. Inoltre, spiega le query SQL basate su prompt in linguaggio naturale e supporta la generazione di dati sintetici per una o più tabelle di schema. Select AI abilita l'invio di richieste generali con l'azione chat.

Dati incremento prompt

Per la generazione di query SQL, il database aumenta il prompt specificato dall'utente con i metadati del database per mitigare le allucinazioni dall'LLM. Il prompt aumentato viene quindi inviato all'LLM specificato dall'utente per produrre la query. Quando si utilizzano le aree di memorizzazione vettoriali con RAG (Recovery Augmented Generation), il contenuto dell'area di memorizzazione vettoriali viene recuperato utilizzando la ricerca di somiglianza semantica con il prompt fornito. Questo contenuto diventa parte del prompt aumentato che viene inviato al LLM.

Il database aumenta il prompt solo con i metadati dello schema. Questi metadati possono includere definizioni di schema, commenti di tabella e colonna e contenuto disponibile nel dizionario dati. Ai fini della generazione SQL, il database non fornisce il contenuto della tabella o della vista (valori effettivi di riga o colonna) quando si aumenta il prompt.

L'azione narrate, tuttavia, fornisce al LLM:
  • il risultato di una query da linguaggio naturale a SQL, che contiene dati di database, o
  • il risultato della ricerca di somiglianza semantica recuperata dallo store vettoriale che supporta la generazione aumentata di recupero (RAG).
LLM utilizza questi risultati per generare una risposta di testo in linguaggio naturale.

AVVERTENZA:

I modelli LLM (Large Language Model) sono stati formati su un ampio set di documenti e contenuti di testo, in genere da Internet. Di conseguenza, i LLM possono avere modelli incorporati da contenuti non validi o dannosi, inclusa l'iniezione SQL. Pertanto, mentre i LLM sono abili a generare contenuti utili e pertinenti, possono anche generare informazioni errate e false, incluse query SQL che producono risultati imprecisi e / o compromettono la sicurezza dei tuoi dati.

Le query generate per conto dell'utente dal provider LLM specificato dall'utente verranno eseguite nel database. L'utilizzo di questa funzione è a proprio rischio e, nonostante tutti gli altri termini e condizioni relativi ai servizi forniti da Oracle, costituisce accettazione di tale rischio ed espressa esclusione della responsabilità di Oracle per eventuali danni derivanti da tale utilizzo.

Piattaforme supportate

Select AI è supportato su Autonomous Database Serverless e Autonomous Database on Dedicated Exadata Infrastructure e Cloud at Customers.

  • Autonomous Database serverless
  • Autonomous Database sull'infrastruttura Exadata dedicata
  • Autonomous Database sull'area dell'infrastruttura Exadata dedicata
  • Autonomous Database Cloud@Customer

Selezionare il provider AI e i LLM

Scegli un provider AI e LLM che soddisfi i tuoi standard di sicurezza e si allinei alle tue esigenze specifiche, come la generazione di testo o codice.

Diversi LLM eccellono in varie attività in base ai loro dati di formazione e allo scopo previsto. Alcuni modelli sono eccellenti per la generazione del testo, ma potrebbero non funzionare bene nella generazione del codice, mentre altri sono specificamente ottimizzati per le attività di codifica. Scegli un LLM più adatto alle tue esigenze.

Provider AI LLM Incorporamento modello per RAG Scopo

AI generativa OCI

  • meta.llama-3.3-70b-instruct (impostazione predefinita)
  • meta.llama-3.2-90b-vision-instruct
  • meta.llama-3.2-11b-istruzioni di visualizzazione
  • meta.llama-3.1-70b-instruct
  • meta.llama-3.1-405b-instruct
  • cohere.command-r-08-2024
  • cohere.command-r-plus-08-2024
  • cohere.command-r-16k (obsoleto)
  • cohere.command-r-plus (non più valido)

Vedere Informazioni sui modelli di chat nell'AI generativa.

  • cohere.embed-english-v3.0 (impostazione predefinita)
  • cohere.embed-multilingue-v3.0
  • cohere.embed-italiano-luce-v3.0
  • cohere.embed-multilingue-light-v3.0

Vedere Informazioni sull'incorporamento dei modelli nell'AI generativa.

I modelli di chat AI generativa OCI sono supportati per tutte le azioni SELECT AI, ad esempio runsql, showsql, explainsql, narrate e chat.

I modelli di testo Genera OCI sono supportati solo per l'azione SELECT AI chat.

Nota

Per i modelli che accettano immagini, utilizzare meta.llama-3.2-90b-vision-instruct. Questo modello è specificamente addestrato per la visione e le immagini. Sebbene possa essere utilizzato per la generazione di testo e SQL, il modello è più adatto per le immagini. Per ulteriori informazioni, vedere Chat in OCI Generative AI.

Il modello meta.llama-3.2-11b-vision-instruct offre solide funzionalità multimodali.

Per configurare gli attributi del profilo, vedere Attributi profilo.

Servizio OpenAI di Azure

  • GPT-4o
  • GPT-4
  • GPT-4 Turbo con visione
  • GPT-3.5-Turbo

testo-incorporamento-ada-002

Ideale per generare SQL dai prompt del linguaggio naturale, dall'azione chat e dalla selezione dell'AG AI.

OpenAI

  • gpt-3.5-turbo (predefinito)
  • gpt-4o
  • gpt-4o-mini
  • gpt-4
  • gpt-4-0613
  • gpt-4-32k
  • gpt-4-32k-0613
  • gpt-3.5-turbo-0613
  • gpt-3.5-turbo-16k
  • gpt-3.5-turbo-16k-0613

testo-incorporamento-ada-002

Ideale per generare SQL dai prompt del linguaggio naturale, dall'azione chat e dalla selezione dell'AG AI.

Cohere

  • comando (predefinito)
  • Comando notturno (sperimentale)
  • comando-r
  • comando-r-plus
  • comando-luce
  • comando-luce-notte (sperimentale)
  • modelli personalizzati

incorporazione-inglese-v2.0

Ideale per l'azione chat.

Google

  • gemini-1.5-flash (predefinito)
  • gemini-1.5-pro
  • gemini-1.0-pro
text-embedding-004 (impostazione predefinita)

Ideale per generare SQL dai prompt del linguaggio naturale, dall'azione chat e dalla selezione dell'AG AI.

Antropico

  • claude-3-5-sonnet-20240620 (predefinito)
  • claude-3-opus-20240229
  • claude-3-sonnet-20240229
  • claude-3-haiku-20240307
NA

Ideale per generare SQL dai prompt del linguaggio naturale, dall'azione chat e dalla selezione dell'AG AI.

Viso Hugging

  • Mixtral-8x7B-Instruct-v0.1 (predefinito)
  • Meta-Llama-3-70B-Instruct
  • Qwen1.5-1.8B
  • altri modelli di chat
NA

Ideale per generare SQL dai prompt del linguaggio naturale, dall'azione chat e dalla selezione dell'AG AI.

Nota

I modelli di incorporamento sono noti anche come modelli di trasformatore.