xAI Grok Code Fast 1 (Beta)

Importante

Vedere Note legali Oracle.

Il modello xAI Grok Code Fast 1 è un modello AI incentrato sulla codifica che eccelle in attività di codifica comuni e ad alto volume come debug e modifica ed è progettato specificamente per flussi di lavoro di codifica identici. Grazie alla sua velocità, all'efficienza e al basso costo, questo modello è versatile nello stack di sviluppo software ed è esperto in TypeScript, Python, Java, Rust, C++ e Go. Utilizza questo modello per creare progetti zero-to-one, rispondere alle domande del codebase, eseguire correzioni di bug e codificare in modo efficace.

Disponibile in queste aree

  • US East (Ashburn) (solo on-demand)
  • Midwest degli Stati Uniti (Chicago) (solo su richiesta)
  • US West (Phoenix) (solo on-demand)
Importante

Chiamate esterne

I modelli xAI Grok sono ospitati in un data center OCI, in una tenancy di cui è stato eseguito il provisioning per xAI. I modelli xAI Grok, a cui è possibile accedere tramite il servizio OCI Generative AI, sono gestiti da xAI.

Caratteristiche principali

  • Nome del modello in OCI Generative AI: xai.grok-code-fast-1
  • Disponibile su richiesta: accedi a questo modello on-demand tramite l'area di gioco della console o l'API.
  • Solo modalità testo: immettere l'input di testo e ottenere l'output di testo. Immagini e input di file, ad esempio file audio, video e documenti, non sono supportati.
  • Knowledge: ha una profonda conoscenza del dominio in finance, sanità, diritto e scienza.
  • Lunghezza contesto: 256.000 token (la lunghezza massima del prompt + della risposta è di 256.000 token per ogni esecuzione). Nel parco giochi, la lunghezza della risposta è limitata a 16.000 gettoni per ogni esecuzione.
  • Escelte in questi casi d'uso: codifica Agentic
  • Chiamata di funzione: Sì, tramite l'API.
  • Output strutturati: Sì.
  • Motivo: n.
  • Conferma: nessuna data limite nota

Per i dettagli sulle funzionalità principali, consultare la documentazione Grok Code Fast 1 e la scheda modello.

Modalità su richiesta

Puoi raggiungere i modelli di base pre-addestrati nell'intelligenza artificiale generativa attraverso due modalità: on-demand e dedicato.

Nota

I modelli Grok sono disponibili solo in modalità su richiesta.

Di seguito sono riportate le funzioni principali per la modalità on-demand.

  • È possibile pagare man mano per ogni chiamata di inferenza quando si utilizzano i modelli nell'area di gioco o quando si chiamano i modelli tramite l'API.

  • Barriera bassa per iniziare a utilizzare l'intelligenza artificiale generativa.
  • Ottimo per la sperimentazione, la prova di concetto e la valutazione del modello.
  • Disponibile per i modelli pre-addestrati in aree non elencate come (solo cluster AI dedicato).
Nome modello Nome modello OCI Recupero dell'accesso
xAI Grok Code Fast 1 (Beta) xai.grok-code-fast-1 Contact Oracle Beta Programs

Data di rilascio

Modello Data rilascio disponibilità generale Data smobilizzo su richiesta Data smobilizzo modalità dedicata
xai.grok-code-fast-1 2.025-9-12 Provvisorio Questo modello non è disponibile per la modalità dedicata.
Importante

Per un elenco di tutte le linee temporali del modello e dei relativi dettagli, vedere Ritiro dei modelli.

Parametri modello

Per modificare le risposte del modello, è possibile modificare i valori dei seguenti parametri nell'area di gioco o nell'API.

Numero massimo di token di output

Numero massimo di token che si desidera venga generato dal modello per ogni risposta. Ogni risposta. Stima quattro caratteri per token. Poiché si sta richiedendo un modello di chat, la risposta dipende dal prompt e ogni risposta non utilizza necessariamente il numero massimo di token allocati. La lunghezza massima del prompt + output è di 256.000 token per ogni esecuzione.

Suggerimento

Per input di grandi dimensioni con problemi difficili, impostare un valore elevato per il parametro del numero massimo di token di output.
Temperatura

Livello di casualità utilizzato per generare il testo di output. Min: 0, Max: 2

Suggerimento

Iniziare con la temperatura impostata su 0 o meno e aumentare la temperatura quando si rigenerano i prompt per ottenere un output più creativo. Le alte temperature possono introdurre allucinazioni e informazioni di fatto errate.
Top p

Metodo di campionamento che controlla la probabilità cumulativa dei primi token da considerare per il token successivo. Assegnare a p un numero decimale compreso tra 0 e 1 per la probabilità. Ad esempio, immettere 0,75 per il primo 75% da considerare. Impostare p su 1 per considerare tutti i token.