xAI Grok 4.20

xAI Grok 4.20 offre varianti di ragionamento e non di ragionamento con velocità leader del settore e supporto identico per la chiamata degli strumenti. E' progettato per ridurre le allucinazioni e seguire da vicino le indicazioni, producendo risposte più affidabili e precise.

Informazioni su Grok 4.20

Aree per questo modello

Importante

Per le aree supportate, i tipi di endpoint (cluster AI su richiesta o dedicati) e l'hosting (AI generativa OCI o chiamate esterne) per questo modello, vedere la pagina Modelli per area. Per informazioni dettagliate sulle aree, vedere la pagina Aree AI generative.

Panoramica

Il modello xAI Grok 4.20 è disponibile in due modalità disponibili in due modelli separati. Un modello di motivo e un modello di non-motivo. Per informazioni su quale modello selezionare, vedere la tabella seguente.

Modalità Nome modello Quando utilizzarla
Ragionamento xai.grok-4.20-0309-reasoning Logica complessa e matematica, analisi scientifica/tecnica, indagini a più fasi o attività a più fasi in cui l'accuratezza è più importante della latenza più bassa.
Non ragionevole xai.grok-4.20-0309-non-reasoning Domande e risposte di routine, recupero di informazioni generali e scenari con throughput elevato in cui la velocità di risposta è la priorità.

Caratteristiche principali

  • Nomi dei modelli nell'AI generativa OCI:
    Ragionamento
    • xai.grok-4.20-0309-reasoning
    • xai.grok-4.20-reasoning (alias che punta a xai.grok-4.20-0309-reasoning)
    Non ragionevole
    • xai.grok-4.20-0309-non-reasoning
    • xai.grok-4.20-non-reasoning (alias che punta a xai.grok-4.20-0309-non-reasoning)
  • Disponibile su richiesta: accedi a questo modello on-demand tramite l'area di gioco della console o l'API.
  • Supporto multimodale: immettere testo e immagini e ottenere un output di testo.
  • Lunghezza contesto: 2 milioni di token (la lunghezza massima del prompt + della risposta è di 2 milioni di token per mantenere il contesto). Nel parco giochi, la lunghezza della risposta è limitata a 131.000 token per ogni corsa, ma il contesto rimane di 2 milioni.
  • Modalità: opera in due modalità: "ragionamento" per attività complesse e "non ragionamento" per richieste veloci e semplici.
  • Chiamata di funzione: Sì, tramite l'API.
  • Output strutturati: Sì.
  • Token di input inseriti nella cache:

    Nota importante: la funzione di input nella cache è disponibile sia nell'area di gioco che nell'API. Tuttavia, tali informazioni possono essere recuperate solo tramite l'API.

  • Knowledge Cutoff: non disponibile

Limiti

Token al minuto (TPM)
Per l'aumento del limite TPM, utilizzare i seguenti nomi limite:
  • Per il modello di ragionamento: grok-4-2-reasoning-tokens-per-minute-count (per 200.000 token)
  • Per il modello senza motivo: grok-4-2-non-reasoning-tokens-per-minute-count (per 200.000 token)

Vedere Creazione di una richiesta di aumento del limite.

Input immagine
  • Console: caricare una o più immagini .png o .jpg, ciascuna di 5 MB o inferiore.
  • API: sono supportati solo i formati di file JPG/JPEG e PNG. Invia una versione codificata base64 di un'immagine, assicurando che ogni immagine convertita sia più di 256 e meno di 1.792 token. Ad esempio, un'immagine 512 x 512 in genere converte in circa 1.610 token. Non è stato specificato il numero massimo di immagini che è possibile caricare. Il conteggio dei token combinati sia per il testo che per le immagini deve rientrare nella finestra di contesto generale del modello di 2 milioni di token.

Modalità su richiesta

Nota

I modelli Grok sono disponibili solo in modalità su richiesta.
Nome modello Nome modello OCI
xAI Grok 4.20
  • xai.grok-4.20-0309-reasoning
  • xai.grok-4.20-0309-non-reasoning

Parametri modello

Per modificare le risposte del modello, è possibile modificare i valori dei seguenti parametri nell'area di gioco o nell'API.

Numero massimo di token di output

Numero massimo di token che si desidera venga generato dal modello per ogni risposta. Ogni risposta. Stima quattro caratteri per token. Poiché si sta richiedendo un modello di chat, la risposta dipende dal prompt e ogni risposta non utilizza necessariamente il numero massimo di token allocati.

Suggerimento

Per input di grandi dimensioni con problemi difficili, impostare un valore elevato per il parametro del numero massimo di token di output. Vedere Risoluzione dei problemi.
Temperatura

Livello di casualità utilizzato per generare il testo di output. Min: 0, Max: 2

Top p

Metodo di campionamento che controlla la probabilità cumulativa dei primi token da considerare per il token successivo. Assegnare a p un numero decimale compreso tra 0,05 e 1 per la probabilità. Ad esempio, immettere 0,75 per il primo 75% da considerare. Impostare p su 1 per considerare tutti i token.

Risoluzione dei problemi

Problema: il modello Grok 4.20 non risponde.

Causa: il parametro Numero massimo di token di output nell'area di esecuzione o il parametro max_tokens nell'API è probabilmente troppo basso. Ad esempio, per impostazione predefinita questo parametro è impostato su 600 token nel campo di gioco che potrebbero essere bassi per attività complesse.

Azione: aumentare il parametro del numero massimo di token di output.