xAI Grok 4 (New)

Il modello xai.grok-4 ha prestazioni migliori rispetto al suo predecessore, Grok 3, ed eccelle nei casi d'uso aziendali come l'estrazione dei dati, la codifica e il testo di riepilogo. Questo modello ha una profonda conoscenza del dominio in finanza, sanità, diritto e scienza.

Disponibile in queste aree

  • Midwest degli Stati Uniti (Chicago) (solo su richiesta)
  • US West (Phoenix) (solo on-demand)
Importante

Chiamate tra più aree

Quando un utente inserisce una richiesta di inferenza a questo modello in un'area elencata, ad esempio Chicago, il servizio AI generativa di Chicago effettua una richiesta a questo modello ospitato a Salt Lake City e restituisce la risposta del modello a Chicago da cui proviene la richiesta di inferenza dell'utente. Vedere Modelli pre-addestrati con chiamate tra più aree.

Caratteristiche principali

  • Nome del modello in OCI Generative AI: xai.grok-4
  • Disponibile su richiesta: accedi a questo modello on-demand tramite l'area di gioco della console o l'API.
  • Supporto multimodale: immettere testo e immagini e ottenere un output di testo.
  • Knowledge: ha una profonda conoscenza del dominio in finance, sanità, diritto e scienza.
  • Lunghezza contesto: 128.000 token (la lunghezza massima del prompt + della risposta è di 128.000 token per ogni esecuzione). Nel parco giochi, la lunghezza della risposta è limitata a 16.000 gettoni per ogni esecuzione.
  • Escelte in questi casi d'uso: estrazione dei dati, codifica e riepilogo del testo
  • Chiamata di funzione: Sì, tramite l'API.
  • Output strutturati: Sì.
  • Motivo:Sì. Per i problemi di ragionamento aumentare il numero massimo di token di output. Vedere Parametri del modello.
  • Knowledge Cutoff: novembre 2024

Limiti

Input immagine
  • Console: caricare una o più immagini .png o .jpg, ciascuna di 5 MB o inferiore.
  • API: inviare una versione codificata base64 di un'immagine, assicurando che ogni immagine convertita sia superiore a 512 e inferiore a 1.792 token. Ad esempio, un'immagine 512 x 512 in genere converte in circa 1.610 token.

Modalità su richiesta

Puoi raggiungere i modelli di base pre-addestrati nell'intelligenza artificiale generativa attraverso due modalità: on-demand e dedicato. Di seguito sono riportate le funzioni principali per la modalità on-demand.
  • È possibile pagare man mano per ogni chiamata di inferenza quando si utilizzano i modelli nell'area di gioco o quando si chiamano i modelli tramite l'API.

  • Barriera bassa per iniziare a utilizzare l'intelligenza artificiale generativa.
  • Ottimo per sperimentare, dimostrare i concetti e valutare i modelli.
  • Disponibile per i modelli pre-addestrati in aree non elencate come (solo cluster AI dedicato).
Suggerimento

Per garantire un accesso affidabile AI modelli di intelligenza artificiale generativa in modalità on-demand, si consiglia di implementare una strategia di back-off, che prevede il ritardo delle richieste dopo un rifiuto. Senza una richiesta, le ripetute richieste rapide possono portare a ulteriori rifiuti nel tempo, a una maggiore latenza e a un potenziale blocco temporaneo del client da parte del servizio di intelligenza artificiale generativa. Utilizzando una strategia di back-off, ad esempio una strategia di back-off esponenziale, puoi distribuire le richieste in modo più uniforme, ridurre il carico e migliorare il successo dei nuovi tentativi, seguendo le best practice del settore e migliorando la stabilità e le prestazioni complessive della tua integrazione nel servizio.

Nota

I modelli Grok sono disponibili solo in modalità su richiesta.

Vedere la tabella riportata di seguito per il nome del prodotto di questo modello nella pagina Determinazione prezzi.

Nome modello Nome modello OCI Nome prodotto pagina determinazione prezzi
xAI Grok 4 xai.grok-4 xAI – Grok 4

Data di rilascio

Modello Data rilascio disponibilità generale Data smobilizzo su richiesta Data smobilizzo modalità dedicata
xai.grok-4 2.025-7-23 Provvisorio Questo modello non è disponibile per la modalità dedicata.
Importante

Per un elenco di tutte le linee temporali del modello e dei relativi dettagli, vedere Ritiro dei modelli.

Parametri modello

Per modificare le risposte del modello, è possibile modificare i valori dei seguenti parametri nell'area di gioco o nell'API.

Numero massimo di token di output

Numero massimo di token che si desidera venga generato dal modello per ogni risposta. Ogni risposta. Stima quattro caratteri per token. Poiché si sta richiedendo un modello di chat, la risposta dipende dal prompt e ogni risposta non utilizza necessariamente il numero massimo di token allocati. La lunghezza massima del prompt + output è di 128.000 token per ogni esecuzione.

Suggerimento

Per input di grandi dimensioni con problemi difficili, impostare un valore elevato per il parametro del numero massimo di token di output. Vedere Risoluzione dei problemi.
Temperatura

Livello di casualità utilizzato per generare il testo di output. Min: 0, Max: 2

Suggerimento

Iniziare con la temperatura impostata su 0 o meno e aumentare la temperatura quando si rigenerano i prompt per ottenere un output più creativo. Le alte temperature possono introdurre allucinazioni e informazioni di fatto errate.
Top p

Metodo di campionamento che controlla la probabilità cumulativa dei primi token da considerare per il token successivo. Assegnare a p un numero decimale compreso tra 0 e 1 per la probabilità. Ad esempio, immettere 0,75 per il primo 75% da considerare. Impostare p su 1 per considerare tutti i token.

Nota

Il modello xai.grok-4 ha un ragionamento, ma non supporta il parametro reasoning_effort utilizzato nei modelli Grok 3 mini e Grok 3 mini fast. Se si specifica il parametro reasoning_effort nell'API per il modello xai.grok-4, si ottiene una risposta di errore.

Risoluzione dei problemi

Problema: il modello Grok 4 non risponde.

Causa: il parametro Numero massimo di token di output nell'area di esecuzione o il parametro max_tokens nell'API è probabilmente troppo basso.

Azione: aumentare il parametro del numero massimo di token di output.

Motivo: per i problemi difficili che richiedono ragionamento e risoluzione dei problemi e per gli input sofisticati di grandi dimensioni, il modello xai.grok-4 tende a pensare e consuma molti token, pertanto se il parametro max_tokens è troppo basso, il modello utilizza i token allocati e non restituisce una risposta finale.