Cohere Embed Multilingual 3

Il modello cohere.embed-multilingual-v3.0 trasforma ogni frase, frase o paragrafo inserito in un array.

È possibile utilizzare i modelli di incorporamento per trovare la somiglianza nelle frasi simili nel contesto o nella categoria. Le integrazioni sono in genere memorizzate in un database vettoriale. Gli incorporamenti sono principalmente utilizzati per ricerche semantiche in cui la funzione di ricerca si concentra sul significato del testo che sta cercando piuttosto che trovare risultati basati su parole chiave.

Disponibile in queste aree

  • Brasile (Est) - San Paolo
  • Germania (Centro) - Francoforte
  • Giappone centrale (Osaka)
  • Arabia Saudita centrale (Riyadh) (solo cluster AI dedicato)
  • Emirati Arabi Uniti (Est) - Dubai
  • Regno Unito (Sud) - Londra
  • Stati Uniti (Midwest) - Chicago

Caratteristiche principali

  • Funziona sia per inglese che per multilingue.
  • Il modello crea un vettore di 1.024 dimensioni per ogni incorporamento.
  • Massimo 96 frasi per esecuzione.
  • Massimo 512 token per ogni input.
  • Ideale per i casi d'uso quando:

Modalità su richiesta

Questo modello è disponibile on-demand in aree non elencate come (solo cluster AI dedicato). Vedere la tabella riportata di seguito per il nome del prodotto su richiesta di questo modello nella pagina relativa alla determinazione prezzi.

Nome modello Nome modello OCI Nome prodotto pagina determinazione prezzi
Cohere Embed Multilingual 3 cohere.embed-multilingual-v3.0 Embed Cohere
Puoi raggiungere i modelli di base pre-addestrati nell'intelligenza artificiale generativa attraverso due modalità: on-demand e dedicato. Di seguito sono riportate le funzioni principali per la modalità on-demand.
  • È possibile pagare man mano per ogni chiamata di inferenza quando si utilizzano i modelli nell'area di gioco o quando si chiamano i modelli tramite l'API.

  • Barriera bassa per iniziare a utilizzare l'intelligenza artificiale generativa.
  • Ottimo per la sperimentazione, la prova di concetto e la valutazione del modello.
  • Disponibile per i modelli pre-addestrati in aree non elencate come (solo cluster AI dedicato).
Importante

Adeguamento limite limitazione dinamica per modalità su richiesta

OCI Generative AI regola in modo dinamico il limite di limitazione delle richieste per ogni tenancy attiva in base alla domanda del modello e alla capacità del sistema per ottimizzare l'allocazione delle risorse e garantire un accesso equo.

Questo adeguamento dipende dai seguenti fattori:

  • Throughput massimo corrente supportato dal modello di destinazione.
  • Capacità del sistema non utilizzata al momento della regolazione.
  • Uso del throughput cronologico di ciascuna tenancy e qualsiasi limite di sostituzione specificato impostato per tale tenancy.

Nota: a causa della limitazione dinamica, i limiti di frequenza non sono documentati e possono cambiare per soddisfare la domanda a livello di sistema.

Suggerimento

A causa dell'adeguamento dinamico del limite di limitazione, si consiglia di implementare una strategia di back-off, che prevede il ritardo delle richieste dopo un rifiuto. Senza una richiesta, le ripetute richieste rapide possono portare a ulteriori rifiuti nel tempo, a una maggiore latenza e a un potenziale blocco temporaneo del client da parte del servizio di intelligenza artificiale generativa. Utilizzando una strategia di back-off, ad esempio una strategia di back-off esponenziale, puoi distribuire le richieste in modo più uniforme, ridurre il carico e migliorare il successo dei nuovi tentativi, seguendo le best practice del settore e migliorando la stabilità e le prestazioni complessive della tua integrazione nel servizio.

Cluster AI dedicato per il modello

Per raggiungere un modello tramite un cluster AI dedicato in qualsiasi area elencata, devi creare un endpoint per tale modello su un cluster AI dedicato. Per le dimensioni dell'unità cluster corrispondenti a questo modello, vedere la tabella riportata di seguito.

Modello base Cluster di ottimizzazione Cluster di hosting Informazioni pagina determinazione prezzi Richiedi aumento limite cluster
  • Nome modello: Cohere Embed Multilingual 3
  • Nome modello OCI: cohere.embed-multilingual-v3.0
Non disponibile per l'ottimizzazione
  • Dimensione unità: Embed Cohere
  • Unità obbligatorie: 1
  • Nome prodotto pagina determinazione prezzi: Embed Cohere - Dedicated
  • Per l'Hosting, Moltiplica il Prezzo Unitario: x1
  • Nome limite: dedicated-unit-embed-cohere-count
  • Per l'hosting, richiedere l'aumento del limite entro: 1
Suggerimento

Se non si dispone di limiti cluster sufficienti nella tenancy per l'hosting di un modello incorporato in un cluster AI dedicato, richiedere il limite dedicated-unit-embed-cohere-count da aumentare di 1.

Regole endpoint per i cluster

  • Un cluster AI dedicato può contenere fino a 50 endpoint.
  • Utilizzare questi endpoint per creare alias che puntano tutti allo stesso modello base o alla stessa versione di un modello personalizzato, ma non a entrambi i tipi.
  • Diversi endpoint per lo stesso modello semplificano l'assegnazione a utenti o scopi diversi.
Dimensione unità cluster di hosting Regole endpoint
Embed Cohere
  • Modello di base: per eseguire il modello ⁇ cohere.embed-multilingual-v3.0 ⁇ su più endpoint, creare tutti gli endpoint necessari su un cluster Embed Cohere (dimensione unità).
  • Modello personalizzato: non è possibile perfezionare ⁇ cohere.embed-multilingual-v3.0, quindi non è possibile creare e ospitare modelli personalizzati creati da tale base.
Suggerimento

Benchmark sulle prestazioni del cluster

Esamina i benchmark delle prestazioni del cluster Cohere Embed Multilingual 3 per casi d'uso diversi.

Date rilascio e smobilizzo

Modello Data di rilascio Data smobilizzo su richiesta Data smobilizzo modalità dedicata
cohere.embed-multilingual-v3.0 2.024-2-7 2.026-1-22 2.026-1-22
Importante

Per un elenco di tutte le linee temporali del modello e dei relativi dettagli, vedere Ritiro dei modelli.

Dati di input per incorporamenti testo

I dati di input per la creazione di integrazioni di testo hanno i seguenti requisiti:

  • È possibile aggiungere frasi, frasi o paragrafi per incorporare una frase alla volta o caricando un file.
  • Sono consentiti solo file con estensione .txt.
  • Se si utilizza un file di input, ogni frase, frase o paragrafo di input nel file deve essere separato da un carattere di nuova riga.
  • Sono consentiti al massimo 96 input per ogni esecuzione.
  • Nella console, ogni input deve essere inferiore a 512 token per i modelli di solo testo.
  • Se un input è troppo lungo, selezionare se interrompere l'inizio o la fine del testo per rientrare nel limite del token impostando il parametro Truncate su Start o End. Se un input supera il limite di 512 token e il parametro Truncate è impostato su Nessuno, viene visualizzato un messaggio di errore.
  • Per i modelli di testo e immagine, è possibile disporre di file e input che sommano tutti fino a 128.000 token.
  • Per i modelli incorporati di testo e immagine, ad esempio Cohere Embed English Image V3, è possibile aggiungere testo o aggiungere solo un'immagine. Per l'immagine, è possibile utilizzare l'API. Input immagine non disponibile nella console. Per l'API, inserire un'immagine con codifica base64 in ogni esecuzione. Ad esempio, un'immagine 512 x 512 viene convertita in circa 1.610 token.

Scopri di più sulla creazione di incorporamenti di testo in OCI Generative AI.

Incorporamento del parametro modello

Quando si utilizzano i modelli di incorporamento, è possibile ottenere un output diverso modificando il parametro seguente.

Tronca

Indica se troncare i token iniziale o finale in una frase, quando tale frase supera il numero massimo di token consentiti. Ad esempio, una frase ha 516 token, ma la dimensione massima del token è 512. Se si sceglie di troncare la fine, gli ultimi 4 token di quella frase vengono tagliati.