Dépannage du pipeline d'inclusion

Une fois vos données de journal incluses dans Log Analytics à l'aide de l'une des méthodes d'inclusion disponibles, le traitement des données commence en mode asynchrone. Lors du traitement des données, si des erreurs se produisent au niveau de la configuration, de la taille ou de la structure de journal, de l'autorisation (applicable uniquement au type ObjectCollection) ou de la définition d'analyseur, elles peuvent entraîner des problèmes tels que les suivants :

  • Les données de journal ne sont pas disponibles dans l'explorateur de journaux pour visualisation.

  • Seules des données partielles sont disponibles pour visualisation.

  • Les données sont traitées et balisées de manière incomplète avec des échecs d'analyse.

  • Les données ne sont pas associées aux ressources attendues, telles que l'entité ou les métadonnées supplémentaires.

Utilisez la mesure Erreurs de traitement pour détecter l'erreur et dépanner le pipeline d'inclusion, en identifiant le type d'erreur et en le mettant en correspondance avec la méthode d'inclusion utilisée. Pour connaître les étapes d'accès à la mesure Erreurs de traitement, reportez-vous à la surveillance de Log Analytics à l'aide des mesures de service.

Les méthodes d'inclusion (collectionType) pour lesquelles la mesure Erreurs de traitement est générée sont les suivantes :

  • Téléchargement à la commande (ODU) : pour toutes les données téléchargées vers Log Analytics via l'une des méthodes de téléchargement à La demande.

  • Inclusion à l'aide du connecteur d'un service (ServiceConnector) : utilisez le connecteur d'un service pour collecter les journaux de votre service Oracle Cloud Infrastructure avec Log Analytics comme cible.

  • Collecte des données à partir d'un bucket Object Storage (ObjectCollection) : pour les données de journal collectées en continu que vous avez stockées dans un bucket Oracle Cloud Object Storage.

  • Collecte des événements de journal (LogEventsCollection) : pour les données collectées à l'aide de l'API uploadLogEvents.

Lorsque des erreurs sont détectées, la mesure Erreurs de traitement affiche une ligne pour chaque type de collecte activé dans la location ou le compartiment. Positionnez le curseur sur les points de données du graphique pour afficher plus de détails sur l'erreur. Suivez les étapes ci-dessous lorsqu'une erreur est signalée pour un type de collecte et que vous souhaitez identifier le type d'erreur exact :

  1. Cliquez sur le menu Options dans l'angle supérieur droit de la mesure Erreurs de traitement, puis sélectionnez Afficher dans l'explorateur de mesures.

    La mesure est maintenant affichée dans l'explorateur de mesures. Vous pouvez ainsi visualiser le graphique en détail.

  2. Cliquez sur Modifier les requêtes, et sélectionnez Nom de dimension et Valeur de dimension pour la mesure. Par exemple, si la mesure Erreurs de traitement a signalé une erreur pour le type de collecte ServiceConnector, sélectionnez la valeur de nom de dimension collectionType et la valeur de dimension serviceConnector.

    Cliquez sur Mettre le graphique à jour pour actualiser la visualisation du graphique. Le graphique affiche à présent uniquement les erreurs du flux de collecte de journal de connexion au service. Il inclut une ligne pour chaque combinaison errorType et resourceId.

    Vous pouvez basculer sur la vue Table des données pour obtenir une représentation tabulaire des points de données d'erreur collectés.

  3. Remplacez le nom de dimension par errorType et resourceId, puis consultez les informations d'erreur correspondantes dans le graphique.

Voici les différents types d'erreur signalés via cette mesure :

Type d'erreur Description Correction recommandée

InvalidConfiguration

Une erreur est survenue avec la configuration que vous avez fournie, par exemple, une source de journal ou des détails d'entité incorrects.

Exemples :

  • Connecteur de service : eventType n'est ni reconnu ni pris en charge dans Log Analytics. Vous avez peut-être configuré une mise En correspondance incorrecte poureventType si vous utilisez des journaux personnalisés.
  • Téléchargement à la demande, Collecte d'objets : la source utilisée lors de l'exécution d'un téléchargement à la demande n'est peut-être pas valide ; le type de source n'est pas pris en charge par le téléchargement à la demande. La combinaison source et type d'entité (lorsque EntityId est indiqué) n'est pas valide.

Examinez les paramètres de configuration et vérifiez qu'ils sont définis correctement. Reportez-vous à Hiérarchie de ressources clés.

InvalidPayload

Les données incluses présentent l'un des problèmes suivants :

  • Le format de la charge utile n'est pas valide.
  • La limite de taille est dépassée.
  • Le format d'archive n'est pas valide.

Assurez-vous que les données sont conformes à la limite de taille, au format et aux formats d'archive requis. Reportez-vous à Inclusion de journaux.

StructureMismatch

Il existe une non-concordance entre les données identifiées pour la collecte et la définition d'analyseur.

Par exemple,

  • L'expression de début d'entrée n'a pas de correspondance dans le fichier JSON ou XML donné, ce qui entraîne la collecte de zéro entrée de journal.
  • La source présente un analyseur de type Expression régulière, mais un fichier JSON est disponible pour la collecte.

Vérifiez la définition d'analyseur et assurez-vous que les données entrantes sont conformes à la définition fournie. Création d'un analyseur

NotAuthorizedOrNotFound

Cette erreur est visible uniquement pour la collecte de données à partir du bucket de stockage d'objet lorsqu'une erreur d'autorisation est détectée à la lecture des données de votre location.

Par exemple,

  • Les stratégies requises pour que Log Analytics lise les objets de votre location ont été enlevées ou n'existent pas.

Vérifiez les stratégies IAM que vous venez de créer afin d'activer la collecte de journal à partir du compartiment de stockage d'objet, et vérifiez que les droits d'utilisateur suivants sont accordés à Log Analytics :

allow service loganalytics to read buckets in compartment/tenancy

allow service loganalytics to read objects in compartment/tenancy