Comando Cohere R+ (08-2024)

Il modello cohere.command-r-plus-08-2024 è ottimizzato per attività complesse, offre una comprensione del linguaggio avanzata, una capacità più elevata e risposte più sfumate rispetto a cohere.command-r-plus e può mantenere il contesto dalla sua lunga cronologia di conversazione di 128.000 token. Questo modello è ideale anche per il questionario, l'analisi del sentiment e il recupero delle informazioni.

Disponibile in queste aree

  • Brasile (Est) - San Paolo
  • Germania (Centro) - Francoforte
  • Giappone centrale (Osaka)
  • Emirati Arabi Uniti (Est) (Dubai) (disponibile come cohere.command-r-plus-08-2024-tp4-64k solo per cluster AI dedicati)
  • Regno Unito (Sud) - Londra
  • Stati Uniti (Midwest) - Chicago

Caratteristiche principali

  • Ottimizzato per attività complesse, offre una comprensione del linguaggio avanzata, una capacità più elevata e risposte più sfumate rispetto a cohere.command-r-plus e può mantenere il contesto dalla sua lunga storia di conversazione di 128.000 token. Ideale anche per risposte alle domande, analisi del sentiment e recupero delle informazioni.
  • Prompt massimo + lunghezza risposta: 128.000 token per ogni esecuzione.
  • Per l'inferenza su richiesta, la lunghezza della risposta è limitata a 4.000 token per ogni esecuzione.
  • Migliore matematica, codifica e capacità di ragionamento.
  • Funzione avanzata di retrieval-augmented generation (RAG) multilingue con opzioni di citazione personalizzabili.
  • Per l'inferenza dedicata, creare un cluster AI dedicato e un endpoint e ospitare il modello nel cluster.

Cluster AI dedicato per il modello

Nella lista di aree precedente, i modelli nelle aree che non sono contrassegnate con (solo cluster AI dedicato) dispongono di opzioni cluster AI sia on-demand che dedicate. Per l'opzione on-demand, non hai bisogno di cluster e puoi raggiungere il modello nell'area di gioco della console o tramite l'API.

Per raggiungere un modello tramite un cluster AI dedicato in qualsiasi area elencata, devi creare un endpoint per tale modello su un cluster AI dedicato. Per le dimensioni dell'unità cluster corrispondenti a questo modello, vedere la tabella riportata di seguito.

Modello base Cluster di ottimizzazione Cluster di hosting Informazioni pagina determinazione prezzi Richiedi aumento limite cluster
  • Nome modello: Command R+ 08-2024
  • Nome modello OCI: cohere.command-r-plus-08-2024
Non disponibile per l'ottimizzazione
  • Dimensione unità: Large Cohere V2_2
  • Unità obbligatorie: 1
  • Nome prodotto pagina determinazione prezzi: Large Cohere - Dedicated
  • Per l'Hosting, Moltiplica il Prezzo Unitario: x2
  • Nome limite: dedicated-unit-large-cohere-count
  • Per l'hosting, richiedere l'aumento del limite entro: 2
  • Nome modello: Cohere Command R+ 08-2024 (tp4)
  • Nome modello OCI: cohere.command-r-plus-08-2024-tp4-64k
Non disponibile per l'ottimizzazione
  • Dimensione unità: Large Cohere
  • Unità obbligatorie: 1
  • Nome prodotto pagina determinazione prezzi: Large Cohere - Dedicated
  • Per l'Hosting, Moltiplica il Prezzo Unitario: x2
  • Nome limite: dedicated-unit-large-cohere-count
  • Per l'hosting, richiedere l'aumento del limite entro: 2
Suggerimento

  • Se non si dispone di limiti cluster sufficienti nella tenancy per l'hosting del modello Cohere Command R+ (08-2024) in un cluster AI dedicato, richiedere il limite dedicated-unit-large-cohere-count da aumentare di 2.

  • Esaminare i benchmark delle prestazioni del cluster Cohere Command R+ 08-2024 (tp4) e Cohere Command R+ 08-2024 per vari casi d'uso.

Date rilascio e smobilizzo

Modello Data di rilascio Data smobilizzo su richiesta Data smobilizzo modalità dedicata
cohere.command-r-plus-08-2024 2.024-11-14 Almeno un mese dopo il rilascio del 1° modello di sostituzione. Almeno 6 mesi dopo il rilascio del 1o modello di sostituzione.
Importante

Per un elenco di tutte le linee temporali del modello e dei relativi dettagli, vedere Ritiro dei modelli.

Parametri modello

Per modificare le risposte del modello, è possibile modificare i valori dei seguenti parametri nell'area di gioco o nell'API.

Numero massimo di token di output

Numero massimo di token che si desidera venga generato dal modello per ogni risposta. Ogni risposta. Stima quattro caratteri per token. Poiché si sta richiedendo un modello di chat, la risposta dipende dal prompt e ogni risposta non utilizza necessariamente il numero massimo di token allocati.

Sostituzione preambolo

Contesto iniziale o messaggio guida per un modello di chat. Quando non si assegna un preambolo a un modello di chat, viene utilizzato il preambolo predefinito per tale modello. È possibile assegnare un preambolo nel parametro Preamble override per i modelli. Il preambolo predefinito per la famiglia Cohere è:

You are Command.
            You are an extremely capable large language model built by Cohere. 
            You are given instructions programmatically via an API
            that you follow to the best of your ability.

L'override del preambolo predefinito è facoltativo. Se specificato, la sostituzione prevedibile sostituisce il preambolo Cohere predefinito. Quando si aggiunge un preambolo, per ottenere risultati ottimali, fornire il contesto del modello, le istruzioni e uno stile di conversazione.

Suggerimento

Per i modelli di chat senza il parametro override prevedibile, è possibile includere un preambolo nella conversazione di chat e chiedere direttamente al modello di rispondere in un determinato modo.
Modalità di sicurezza
Aggiunge un'istruzione di sicurezza da utilizzare per il modello durante la generazione delle risposte. Di seguito sono riportate le opzioni disponibili.
  • Contestuale: (Predefinito) inserisce meno vincoli nell'output. Mantiene le protezioni fondamentali mirando a rifiutare suggerimenti dannosi o illegali, ma consente la profanità e alcuni contenuti tossici, contenuti sessualmente espliciti e violenti e contenuti che contengono informazioni mediche, finanziarie o legali. La modalità contestuale è adatta per l'intrattenimento, la creatività o l'uso accademico.
  • Restrittivo: mira a evitare argomenti sensibili, come atti violenti o sessuali e volgarità. Questa modalità mira a fornire un'esperienza più sicura vietando risposte o raccomandazioni che ritiene inappropriate. La modalità rigorosa è adatta per l'uso aziendale, ad esempio per le comunicazioni aziendali e il servizio clienti.
  • Non attivo: non viene applicata alcuna modalità di sicurezza.
Temperatura

Livello di casualità utilizzato per generare il testo di output.

Suggerimento

Iniziare con la temperatura impostata su 0 o meno e aumentare la temperatura quando si rigenerano i prompt per ottenere un output più creativo. Le alte temperature possono introdurre allucinazioni e informazioni di fatto errate.
Top p

Metodo di campionamento che controlla la probabilità cumulativa dei primi token da considerare per il token successivo. Assegnare a p un numero decimale compreso tra 0 e 1 per la probabilità. Ad esempio, immettere 0,75 per il primo 75% da considerare. Impostare p su 1 per considerare tutti i token.

Top k

Metodo di campionamento in cui il modello sceglie il token successivo in modo casuale dai token top k con maggiore probabilità. Un valore elevato per k genera un output più casuale, che rende il testo di output più naturale. Il valore predefinito per k è 0 per i modelli Cohere Command e -1 per i modelli Meta Llama, il che significa che il modello deve considerare tutti i token e non utilizzare questo metodo.

Penalità di frequenza

Penale assegnata a un token quando tale token appare frequentemente. Le sanzioni elevate incoraggiano un minor numero di token ripetuti e producono un output più casuale.

Per i modelli della famiglia Meta Llama, questa penalità può essere positiva o negativa. I numeri positivi incoraggiano il modello a utilizzare nuovi token e i numeri negativi incoraggiano il modello a ripetere i token. Impostare su 0 per disabilitare.

Penalità di presenza

Penalità assegnata a ciascun token quando viene visualizzato nell'output per incoraggiare la generazione di output con token non utilizzati.

Popola

Parametro che fa il possibile per campionare i token in modo deterministico. Quando a questo parametro viene assegnato un valore, il modello di linguaggio di grandi dimensioni mira a restituire lo stesso risultato per le richieste ripetute quando si assegnano gli stessi seed e parametri per le richieste.

I valori consentiti sono numeri interi e l'assegnazione di un valore iniziale grande o piccolo non influisce sul risultato. L'assegnazione di un numero per il parametro seed è simile all'applicazione di tag alla richiesta con un numero. Il modello di linguaggio di grandi dimensioni mira a generare lo stesso set di token per lo stesso numero intero nelle richieste consecutive. Questa funzione è particolarmente utile per le operazioni di debug e test. Il parametro seed non ha un valore massimo per l'API e nella console il relativo valore massimo è 9999. Lasciando vuoto il valore iniziale nella console o nullo nell'API, questa funzione viene disabilitata.

Avvertenza

Il parametro seed potrebbe non produrre lo stesso risultato nel lungo periodo, poiché gli aggiornamenti del modello nel servizio OCI Generative AI potrebbero invalidare il seed.