Cohere Embed English 3
Il modello cohere.embed-english-v3.0
trasforma ogni frase, frase o paragrafo inserito in un array.
È possibile utilizzare i modelli di incorporamento per trovare la somiglianza nelle frasi simili nel contesto o nella categoria. Le integrazioni sono in genere memorizzate in un database vettoriale. Gli incorporamenti sono principalmente utilizzati per ricerche semantiche in cui la funzione di ricerca si concentra sul significato del testo che sta cercando piuttosto che trovare risultati basati su parole chiave.
Disponibile in queste aree
- Brasile (Est) - San Paolo
- Germania (Centro) - Francoforte
- Giappone centrale (Osaka)
- Emirati Arabi Uniti orientali (Dubai) (solo cluster AI dedicato)
- Regno Unito (Sud) - Londra
- Stati Uniti (Midwest) - Chicago
Accedi a questo modello
Caratteristiche principali
- Utilizzare i modelli Cohere Embed English per generare incorporamenti di testo da documenti inglesi.
- Inglese o multilingue.
- Il modello crea un vettore di 1.024 dimensioni per ogni incorporamento.
- Massimo 96 frasi per esecuzione.
- Massimo 512 token per ogni input.
Modalità su richiesta
Questo modello è disponibile on-demand in aree non elencate come (solo cluster AI dedicato). Vedere la tabella riportata di seguito per il nome del prodotto su richiesta di questo modello nella pagina relativa alla determinazione prezzi.
Nome modello | Nome modello OCI | Nome prodotto pagina determinazione prezzi |
---|---|---|
Cohere Embed English 3 | cohere.embed-english-v3.0 |
Embed Cohere |
-
È possibile pagare man mano per ogni chiamata di inferenza quando si utilizzano i modelli nell'area di gioco o quando si chiamano i modelli tramite l'API.
- Barriera bassa per iniziare a utilizzare l'intelligenza artificiale generativa.
- Ottimo per la sperimentazione, la prova di concetto e la valutazione del modello.
- Disponibile per i modelli pre-addestrati in aree non elencate come (solo cluster AI dedicato).
Adeguamento limite limitazione dinamica per modalità su richiesta
OCI Generative AI regola in modo dinamico il limite di limitazione delle richieste per ogni tenancy attiva in base alla domanda del modello e alla capacità del sistema per ottimizzare l'allocazione delle risorse e garantire un accesso equo.
Questo adeguamento dipende dai seguenti fattori:
- Throughput massimo corrente supportato dal modello di destinazione.
- Capacità del sistema non utilizzata al momento della regolazione.
- Uso del throughput cronologico di ciascuna tenancy e qualsiasi limite di sostituzione specificato impostato per tale tenancy.
Nota: a causa della limitazione dinamica, i limiti di frequenza non sono documentati e possono cambiare per soddisfare la domanda a livello di sistema.
A causa dell'adeguamento dinamico del limite di limitazione, si consiglia di implementare una strategia di back-off, che prevede il ritardo delle richieste dopo un rifiuto. Senza una richiesta, le ripetute richieste rapide possono portare a ulteriori rifiuti nel tempo, a una maggiore latenza e a un potenziale blocco temporaneo del client da parte del servizio di intelligenza artificiale generativa. Utilizzando una strategia di back-off, ad esempio una strategia di back-off esponenziale, puoi distribuire le richieste in modo più uniforme, ridurre il carico e migliorare il successo dei nuovi tentativi, seguendo le best practice del settore e migliorando la stabilità e le prestazioni complessive della tua integrazione nel servizio.
Cluster AI dedicato per il modello
Per raggiungere un modello tramite un cluster AI dedicato in qualsiasi area elencata, devi creare un endpoint per tale modello su un cluster AI dedicato. Per le dimensioni dell'unità cluster corrispondenti a questo modello, vedere la tabella riportata di seguito.
Modello base | Cluster di ottimizzazione | Cluster di hosting | Informazioni pagina determinazione prezzi | Richiedi aumento limite cluster |
---|---|---|---|---|
|
Non disponibile per l'ottimizzazione |
|
|
|
Se non si dispone di limiti cluster sufficienti nella tenancy per l'hosting di un modello incorporato in un cluster AI dedicato, richiedere il limite dedicated-unit-embed-cohere-count
da aumentare di 1.
Regole endpoint per i cluster
- Un cluster AI dedicato può contenere fino a 50 endpoint.
- Utilizzare questi endpoint per creare alias che puntano tutti allo stesso modello base o alla stessa versione di un modello personalizzato, ma non a entrambi i tipi.
- Diversi endpoint per lo stesso modello semplificano l'assegnazione a utenti o scopi diversi.
Dimensione unità cluster di hosting | Regole endpoint |
---|---|
Embed Cohere |
|
-
Per aumentare il volume delle chiamate supportato da un cluster di hosting, aumentare il conteggio delle istanze modificando il cluster AI dedicato. Vedere Aggiornamento di un cluster AI dedicato.
-
Per più di 50 endpoint per cluster, richiedere un aumento del limite,
endpoint-per-dedicated-unit-count
. Vedere Richiesta di un aumento del limite del servizio e Limiti del servizio per l'intelligenza artificiale generativa.
Benchmark sulle prestazioni del cluster
Esamina i benchmark sulle prestazioni dei cluster Cohere Embed English 3 per casi d'uso diversi.
Date rilascio e smobilizzo
Modello | Data di rilascio | Data smobilizzo su richiesta | Data smobilizzo modalità dedicata |
---|---|---|---|
cohere.embed-english-v3.0
|
2.024-2-7 | 2.026-1-22 | 2.026-1-22 |
Per un elenco di tutte le linee temporali del modello e dei relativi dettagli, vedere Ritiro dei modelli.
Dati di input per incorporamenti testo
I dati di input per la creazione di integrazioni di testo hanno i seguenti requisiti:
- È possibile aggiungere frasi, frasi o paragrafi per incorporare una frase alla volta o caricando un file.
- Sono consentiti solo file con estensione
.txt
. - Se si utilizza un file di input, ogni frase, frase o paragrafo di input nel file deve essere separato da un carattere di nuova riga.
- Sono consentiti al massimo 96 input per ogni esecuzione.
- Nella console, ogni input deve essere inferiore a 512 token per i modelli di solo testo.
- Se un input è troppo lungo, selezionare se interrompere l'inizio o la fine del testo per rientrare nel limite del token impostando il parametro Truncate su Start o End. Se un input supera il limite di 512 token e il parametro Truncate è impostato su Nessuno, viene visualizzato un messaggio di errore.
- Per i modelli di testo e immagine, è possibile disporre di file e input che sommano tutti fino a 128.000 token.
- Per i modelli incorporati di testo e immagine, ad esempio Cohere Embed English Image V3, è possibile aggiungere testo o aggiungere solo un'immagine. Per l'immagine, è possibile utilizzare l'API. Input immagine non disponibile nella console. Per l'API, inserire un'immagine con codifica base64 in ogni esecuzione. Ad esempio, un'immagine 512 x 512 viene convertita in circa 1.610 token.
Scopri di più sulla creazione di incorporamenti di testo in OCI Generative AI.
Incorporamento del parametro modello
Quando si utilizzano i modelli di incorporamento, è possibile ottenere un output diverso modificando il parametro seguente.
- Tronca
-
Indica se troncare i token iniziale o finale in una frase, quando tale frase supera il numero massimo di token consentiti. Ad esempio, una frase ha 516 token, ma la dimensione massima del token è 512. Se si sceglie di troncare la fine, gli ultimi 4 token di quella frase vengono tagliati.