Informations détaillées sur le service de flux de données
Détails de journalisation pour les journaux de diagnostic Spark du service de flux de données.
Ressources
- applications
Catégories de journaux
Valeur d'API (ID) : | Console (Nom d'affichage) | Description |
---|---|---|
all | Diagnostic | Inclut tous les journaux générés par le cadre Apache Spark (pilotes et exécuteurs). |
Disponibilité
La journalisation du service de flux de données est disponible dans toutes les régions des domaines commerciaux.
Commentaires
Les journaux de diagnostic Spark ne peuvent être activés qu'au niveau de l'application de flux de données et ne peuvent pas être remplacés.
Si vous activez la journalisation pour une application de flux de données, les journaux de diagnostic Spark sont transmis en continu pour toute nouvelle soumission d'exécution de flux de données. Les exécutions déjà acceptées ou en cours ne sont pas mises à jour.
Contenu d'un journal de diagnostic Spark de flux de données
Propriété | Description |
---|---|
specversion | Version du schéma du journal pour Oracle Cloud Infrastructure Logging. |
type | Catégorie de journal qui respecte la convention com.oraclecloud.{service}.{resource-type}.{category} .com.oraclecloud.dataflow.run.driver com.oraclecloud.dataflow.run.executor |
source | Nom de la ressource qui a généré le message. |
subject | Sous-ressource spécifique qui a généré l'événement. |
id | Identificateur unique de la source pour cette ingestion de lot. |
time | Heure à laquelle la sortie de la fonction a été générée, dans le format d'horodatage RFC 3339. |
oracle.logid | OCID de l'objet de journal du service de journalisation pour Oracle Cloud Infrastructure. |
oracle.loggroupid | OCID du groupe de journaux du service de journalisation pour Oracle Cloud Infrastructure. |
oracle.compartmentid | OCID du compartiment dans lequel se trouve le groupe de journaux du service Oracle Cloud Infrastructure Logging. |
oracle.tenantid | OCID du locataire. |
oracle.ingestedtime | Heure à laquelle la ligne de journal a été ingérée par Oracle Cloud Infrastructure Logging, dans le format d'heure RFC 3339. |
data[i].id | Identificateur unique pour cet événement de journal. |
données[i].temps | Heure à laquelle cette entrée de journal spécifique a été générée. Doit respecter le format spécifié dans RFC 3339. |
données[i].données | Données non vides représentant un événement de journal. |
data.data[i].level | Niveau de journalisation de l'événement de journalisation. |
data.data[i].message | Message décrivant les détails de l'événement. |
data.data[i].opcRequestId | ID demande unique affecté par Oracle généré lors de la soumission de l'exécution du flux de données et inclus dans la réponse createRun. |
data.data[i].runId | OCID de l'exécution du flux de données dont la ressource (pilote ou exécuteur Spark) a généré ce message. |
data.data[i].thread | Nom de l'unité d'exécution qui a généré l'événement de journalisation. |
Exemple de journal de diagnostic Spark pour le service de flux de données
{
"datetime": 1687551602245,
"logContent": {
"data": {
"logLevel": "INFO",
"message": "Execution complete.",
"opcRequestId": "<unique_ID>",
"runId": "ocid1.dataflowrun.oc1.ca-toronto-1.<unique_ID>",
"thread": "shaded.dataflow.oracle.dfcs.spark.wrapper.DataflowWrapper"
},
"id": "<unique_ID>",
"oracle": {
"compartmentid": "ocid1.tenancy.oc1..<unique_ID>",
"ingestedtime": "2023-06-23T20:20:06.974Z",
"loggroupid": "ocid1.loggroup.oc1.ca-toronto-1.<unique_ID>",
"logid": "ocid1.log.oc1.ca-toronto-1.<unique_ID>",
"tenantid": "ocid1.tenancy.oc1..<unique_ID>"
},
"source": "Sample CSV Processing App",
"specversion": "1.0",
"subject": "spark-driver",
"time": "2023-06-23T20:20:02.245Z",
"type": "com.oraclecloud.dataflow.run.driver"
},
"regionId": "ca-toronto-1"
}
Utilisation de la CLI
Voir Activer les journaux de diagnostic Spark pour Oracle Cloud Infrastructure Logging pour un exemple de commande permettant d'activer la journalisation de diagnostic Spark pour le service de flux de données.