Inclusione dei dati di origine dati negli agenti AI generativi

Un job di inclusione dati estrae i dati dai documenti di origine dati, li converte in un formato strutturato adatto per l'analisi e li memorizza in una knowledge base.

  1. Nella pagina di elenco Knowledge base selezionare la knowledge base che si desidera includere i dati per la relativa origine dati.
    Per informazioni su come trovare la pagina dell'elenco, vedere Elenco di Knowledge base.
  2. Selezionare l'origine dati che si desidera includere nei dati.
  3. Selezionare Crea job di inclusione.
  4. Immettere i valori seguenti:
    • Nome: un nome che inizia con una lettera o un carattere di sottolineatura, seguito da lettere, numeri, trattini o caratteri di sottolineatura. La lunghezza può essere compresa tra 1 e 255 caratteri.
    • Descrizione: una descrizione facoltativa.
    • Tag: selezionare Mostra opzioni avanzate e aggiungere una o più tag al job di inclusione. Se si dispone delle autorizzazioni per creare una risorsa, si dispone dell'autorizzazione per aggiornarne le tag. Per assistenza, vedere Concetti dello spazio di nomi tag e tag.
  5. Selezionare Crea.
  6. Attendere la modifica dello stato del job di inclusione.

Nota

Dopo la creazione di un job di inclusione
  1. Rivedere i log di stato per confermare che tutti i file aggiornati sono stati inclusi correttamente. Se è necessaria assistenza per ottenere i log dello stato, vedere Recupero dei dettagli di un job di inclusione dati.
  2. Se il job di inclusione non riesce (ad esempio, a causa di un file troppo grande), risolvere il problema e riavviare il job.
Modalità di gestione dei job eseguiti in precedenza dalla pipeline di inclusione

Quando si riavvia un job di inclusione eseguito in precedenza, la pipeline:

  1. Rileva i file precedentemente inclusi correttamente e li ignora.
  2. Include solo i file non riusciti in precedenza e da allora sono stati aggiornati.
Scenario di esempio

Si supponga di disporre di 20 file da includere e che l'esecuzione del job iniziale produca 2 file non riusciti. Quando si riavvia il job, la pipeline:

  1. Riconosce che 18 file sono già stati ingeriti con successo e li ignora.
  2. Contiene solo i 2 file non riusciti in precedenza e da allora sono stati aggiornati.