Pagamento per inferenze su richiesta
Con l'impegno nell'inferenza on-demand nell'AI generativa OCI puoi ottenere i seguenti vantaggi:
- Bassa barriera per iniziare a utilizzare l'intelligenza artificiale generativa.
- Accesso a tutti i modelli fondamentali di intelligenza artificiale generativa disponibili.
- Ottimo per sperimentare e valutare i modelli.
- Pay as you go per le transazioni. Per informazioni dettagliate, vedere la nota riportata di seguito.
Con l'inferenza on-demand si ottengono le lunghezze di carattere seguenti:
- Chat: lunghezza del prompt (in caratteri) + lunghezza della risposta (in caratteri)
- Generazione testo: lunghezza del prompt (in caratteri) + lunghezza della risposta (in caratteri)
- Riepilogo: lunghezza del prompt (in caratteri) + lunghezza della risposta (in caratteri)
- Incorporazioni testo: lunghezza di input (in caratteri)
Nella pagina Determinazione prezzi, 1 character
viene calcolato come 1 transaction
.
Se si ospitano modelli di base o si perfezionano su cluster AI dedicati, il costo viene addebitato in base all'ora di unità anziché alla transazione. In questo caso, consulta la sezione Pagamento per cluster AI dedicati per scoprire come calcolare i costi del cluster AI dedicato.
Confronto tra modelli e prezzi su richiesta
Vedere le seguenti tabelle per abbinare un modello di base al nome del prodotto nella pagina dei prezzi. La pagina dei prezzi elenca il prezzo per 10.000 transazioni su richiesta quando si utilizza l'area giochi, l'API o l'interfaccia CLI per l'inferenza. Rivedere quindi gli esempi in questa sezione per imparare a calcolare il costo in base al numero di caratteri di input e output.
Modelli chat
Nome modello | Nome modello OCI | Nome prodotto pagina determinazione prezzi |
---|---|---|
Cohere Command A | cohere.command-a-03-2025 |
Large Cohere |
Cohere Command R 08-2024 | cohere.command-r-08-2024 |
Small Cohere |
Cohere Command R+ 08-2024 | cohere.command-r-plus-08-2024 |
Large Cohere |
Cohere Command R | cohere.command-r-16k (obsoleto) |
Small Cohere |
Cohere Command R+ | cohere.command-r-plus (obsoleto) |
Large Cohere |
Meta Llama 4 Maverick | meta.llama-4-maverick-17b-128e-instruct-fp8 |
Meta Llama 4 Maverick |
Meta Llama 4 Scout | meta.llama-4-scout-17b-16e-instruct |
Meta Llama 4 Scout |
Meta Llama 3.3 | meta.llama-3.3-70b-instruct |
Large Meta |
Meta Llama 3.2 11B Vision | meta.llama-3.2-11b-vision-instruct |
Large Meta |
Meta Llama 3.2 90B Vision | meta.llama-3.2-90b-vision-instruct |
Large Meta |
Meta Llama 3.1 (70B) | meta.llama-3.1-70b-instruct |
Large Meta |
Meta Llama 3.1 (405B) | meta.llama-3.1-405b-instruct |
Meta Llama 3.1 405B |
Meta Llama 3 | meta.llama-3-70b-instruct (obsoleto) |
Large Meta |
I modelli di generazione del testo e di riepilogo supportati per la modalità su richiesta ora sono ritirati. Si consiglia di utilizzare i modelli di chat.
Incorporamento dei modelli
Nome modello | Nome modello OCI | Nome prodotto pagina determinazione prezzi |
---|---|---|
Cohere Incorpora immagine inglese V3 | cohere.embed-english-image-v3.0 |
Embed Cohere |
Cohere Embed Multilingual Image V3 | cohere.embed-multilingual-image-v3.0 |
Embed Cohere |
Cohere Embed English Light Image V3 | cohere.embed-english-light-image-v3.0 |
Embed Cohere |
Cohere Embed Multilingual Light Image V3 | cohere.embed-multilingual-light-image-v3.0 |
Embed Cohere |
Cohere Embed English V3 | cohere.embed-english-v3.0 |
Embed Cohere |
Cohere Embed Multilingual V3 | cohere.embed-multilingual-v3.0 |
Embed Cohere |
Cohere Embed English Light V3 | cohere.embed-english-light-v3.0 |
Embed Cohere |
Cohere Embed Multilingual Light V3 | cohere.embed-multilingual-light-v3.0 |
Embed Cohere |
Esempio di chat
Paul chiama il modello meta.llama-3.3-70b-instruct
con il seguente prompt, che è lungo 220 characters
:
Generare un passo del prodotto per un microfono compatto collegato tramite USB in grado di registrare il suono surround. Il microfono è più utile per registrare musica o conversazioni. Il microfono può essere utile anche per la registrazione di podcast.
La risposta del modello è lunga 2,205 characters
. Paul vuole sapere il costo di questa chiamata. Ecco i passaggi per calcolare il costo.
Oltre a calcolare il prezzo, è possibile stimare il costo selezionando la categoria AI e Machine Learning e caricando il valutatore dei costi per l'AI generativa OCI.
Esempio di incorporazione del testo
Gina sta convertendo i contratti dei clienti in embeddings per una nuova applicazione di ricerca semantica. In media, Gina ingerisce 16 documenti ogni ora. Ogni documento ha una lunghezza di circa 1,000 characters
. Gina vuole ottenere una stima della fattura mensile per la generazione di tali embeddings. Ecco i passaggi per calcolare il costo.