Détails relatifs à Data Flow
Détails de journalisation pour les journaux de diagnostic Spark Data Flow.
Ressources
- applications
Catégories de journal
Valeur d'API (ID) : | Console (nom d'affichage) | Description |
---|---|---|
all | Diagnostic | Inclut tous les journaux générés par la structure Apache Spark (pilote et exécuteurs). |
Disponibilité
La journalisation Data Flow est disponible dans toutes les régions des domaines commerciaux.
Commentaires
Les journaux de diagnostic Spark peuvent être activés uniquement au niveau de l'application Data Flow et ne peuvent pas être remplacés.
Si vous activez la journalisation pour une application Data Flow, les journaux de diagnostic Spark sont transmis en continu pour toute nouvelle soumission d'exécution Data Flow. Les exécutions déjà acceptées ou en cours ne sont pas mises à jour.
Contenu d'un journal de diagnostic Spark Data Flow
Propriété | Description |
---|---|
specversion | Version du schéma Oracle Cloud Infrastructure Logging du journal. |
type | Catégorie de journal qui suit la convention com.oraclecloud.{service}.{resource-type}.{category} .com.oraclecloud.dataflow.run.driver com.oraclecloud.dataflow.run.executor |
source | Nom de la ressource qui a généré le message. |
subject | Sous-ressource spécifique qui a généré l'événement. |
id | Identifiant unique de la source pour cette assimilation par lots. |
time | Heure de génération de la sortie de la fonction, au format d'horodatage RFC 3339. |
oracle.logid | OCID de l'objet de journal Oracle Cloud Infrastructure Logging. |
oracle.loggroupid | OCID du groupe de journaux Oracle Cloud Infrastructure Logging. |
oracle.compartmentid | OCID du compartiment dans lequel se trouve le groupe de journaux Oracle Cloud Infrastructure Logging. |
oracle.tenantid | OCID du locataire. |
oracle.ingestedtime | Heure à laquelle la ligne de journal a été ingérée par Oracle Cloud Infrastructure Logging, au format d'horodatage RFC 3339. |
data[i].id | Identificateur unique de cet événement de journal. |
data[i].time | Heure à laquelle cette entrée de journal spécifique a été générée. Doit respecter le format indiqué dans RFC 3339. |
données[i].data | Données non vides représentant un événement de journal. |
data.data[i].level | Niveau de journalisation de l'événement de journalisation. |
Message data.data[i].message | Message : décrit les détails de l'événement. |
data.data[i].opcRequestId | ID de demande unique affecté par Oracle généré lors de la soumission de l'exécution Data Flow et inclus dans la réponse createRun. |
data.data[i].runId | OCID de l'exécution Data Flow dont la ressource (pilote ou exécuteur Spark) a généré ce message. |
data.data[i].thread | Nom du thread ayant généré l'événement de journalisation. |
Exemple de journal de diagnostic Spark Data Flow
{
"datetime": 1687551602245,
"logContent": {
"data": {
"logLevel": "INFO",
"message": "Execution complete.",
"opcRequestId": "<unique_ID>",
"runId": "ocid1.dataflowrun.oc1.ca-toronto-1.<unique_ID>",
"thread": "shaded.dataflow.oracle.dfcs.spark.wrapper.DataflowWrapper"
},
"id": "<unique_ID>",
"oracle": {
"compartmentid": "ocid1.tenancy.oc1..<unique_ID>",
"ingestedtime": "2023-06-23T20:20:06.974Z",
"loggroupid": "ocid1.loggroup.oc1.ca-toronto-1.<unique_ID>",
"logid": "ocid1.log.oc1.ca-toronto-1.<unique_ID>",
"tenantid": "ocid1.tenancy.oc1..<unique_ID>"
},
"source": "Sample CSV Processing App",
"specversion": "1.0",
"subject": "spark-driver",
"time": "2023-06-23T20:20:02.245Z",
"type": "com.oraclecloud.dataflow.run.driver"
},
"regionId": "ca-toronto-1"
}
Utilisation de la CLI
Pour obtenir un exemple de commande permettant d'activer la journalisation de diagnostic Spark Data Flow, reportez-vous à Activation des journaux de diagnostic Spark Oracle Cloud Infrastructure Logging.