Inclusione dei dati di origine dati negli agenti AI generativi

Un job di inclusione dati estrae i dati dai documenti di origine dati, li converte in un formato strutturato adatto per l'analisi e li memorizza in una knowledge base.

  1. Nella pagina elenco Basi di conoscenza, selezionare la knowledge base che si desidera includere per l'origine dati. Per assistenza nella ricerca della pagina di elenco, vedere Elenco delle knowledge base.
  2. Selezionare l'origine dati che si desidera includere nei dati.
  3. Selezionare Crea job di inclusione.
  4. Immettere i valori seguenti:
    • Nome: un nome che inizia con una lettera o un carattere di sottolineatura, seguito da lettere, numeri, trattini o caratteri di sottolineatura. La lunghezza può essere compresa tra 1 e 255 caratteri.
    • Descrizione: una descrizione facoltativa.
    • Tag: selezionare Mostra opzioni avanzate e aggiungere una o più tag al job di inclusione. Se si dispone delle autorizzazioni per creare una risorsa, si dispone dell'autorizzazione per aggiornarne le tag. Per assistenza, vedere Concetti dello spazio di nomi tag e tag.
  5. Selezionare Crea.

    Un job di inclusione viene avviato con Accettato come stato del job iniziale. Impossibile annullare un job di inclusione in qualsiasi stato.

  6. Attendere la modifica dello stato del job ed eseguire qualsiasi azione richiesta.

    Visualizzare i log di stato del job per ottenere i dettagli di elaborazione dell'inclusione dei file, incluse le azioni correttive. Per istruzioni sulla visualizzazione dei log di stato, vedere Recupero dei dettagli di un job di inclusione dati.

    Stato del job Descrizione Azione da eseguire
    Riuscito Il job ha completato ed elaborato tutti i file. Rivedere i log di stato per confermare che tutti i file aggiornati sono stati inclusi correttamente.
    Completato, con errori Il job ha completato ed elaborato tutti i file. Tuttavia, ci sono alcuni errori di file. Di seguito sono indicati i possibili errori o guasti del file.
    • File danneggiato.
    • Il file PDF è protetto mediante password.
    • Le immagini danneggiate in un file vengono ignorate.
    • Inclusione dei dati della tabella in un PDF non riuscita. Il resto del contenuto del file viene incluso.
    • URL in un file PDF non inclusi. Il resto del contenuto del file viene incluso.
    • Si è verificato un problema durante l'elaborazione degli attributi dei metadati del file. Il file viene incluso ma senza gli attributi dei metadati.
    Controllare i log di stato per capire il motivo dei singoli errori di file. Risolvere i problemi e riavviare il job.
    Errore, correzione dell'origine dati Si è verificato un problema di accesso al bucket o ai file specificati nella configurazione dell'origine dati. Controllare i log di stato per suggerimenti su come risolvere il problema o i problemi, quindi riavviare il job.
    Non riuscito, è necessario riprovare Si è verificato un problema con un sistema dipendente, ad esempio lo storage degli oggetti o OpenSearch, anche dopo diversi tentativi. Eseguire di nuovo il job in seguito.
    Operazione non riuscita, contattare il supporto Si è verificato un problema che non può essere risolto mediante un nuovo tentativo. Contatta supporto

Nota

Dopo la creazione di un job di inclusione
  1. Rivedere i log di stato e di stato per verificare che tutti i file aggiornati siano stati inclusi correttamente. Se è necessaria assistenza per ottenere i log dello stato, vedere Recupero dei dettagli di un job di inclusione dati.
  2. Se il job di inclusione non riesce (ad esempio, a causa di un file troppo grande), risolvere il problema e riavviare il job.
Modalità di gestione dei job eseguiti in precedenza dalla pipeline di inclusione

Quando si riavvia un job di inclusione eseguito in precedenza, la pipeline:

  1. Rileva i file precedentemente inclusi correttamente e li ignora.
  2. Include solo i file non riusciti in precedenza e da allora sono stati aggiornati.
Scenario di esempio

Si supponga di disporre di 20 file da includere e che l'esecuzione del job iniziale produca 2 file non riusciti. Quando si riavvia il job, la pipeline:

  1. Riconosce che 18 file sono già stati ingeriti con successo e li ignora.
  2. Contiene solo i 2 file non riusciti in precedenza e da allora sono stati aggiornati.