Note :
- Ce tutoriel nécessite l'accès à Oracle Cloud. Pour vous inscrire à un compte gratuit, voir Introduction à l' niveau gratuit d'Oracle Cloud Infrastructure.
- Il utilise des exemples de valeurs pour les données d'identification, la location et les compartiments Oracle Cloud Infrastructure. À la fin de votre laboratoire, remplacez ces valeurs par celles propres à votre environnement en nuage.
Intégrer Oracle Cloud Infrastructure et Datadog à l'aide des pipelines Datadog Observability
Présentation
Oracle Cloud Infrastructure (OCI) est une infrastructure en tant que service (IaaS) et une plate-forme en tant que service (PaaS) fiables par des entreprises à grande échelle. Il offre une gamme complète de services gérés comprenant l'hébergement, le stockage, le réseau, les bases de données, etc.
Oracle Cloud Observability and Management Platform est conçu pour s'aligner sur les préférences de nos clients. Beaucoup ont adopté des pratiques opérationnelles établies en utilisant des outils d'observabilité tiers. Notre objectif est d'assurer une intégration transparente avec ces outils, permettant à nos clients de tirer parti de leurs investissements existants aux côtés d'OCI.
Selon Datadog, leurs pipelines d'observabilité vous permettent de collecter, traiter et acheminer les journaux de n'importe quelle source vers n'importe quelle destination de l'infrastructure que vous possédez ou gérez.
Observability Pipelines Worker est le logiciel qui s'exécute dans votre infrastructure. Il agrège et centralise les processus et achemine vos données. Pour l'ingestion des journaux OCI dans Datadog, le logiciel Observability Pipelines Worker s'exécute sur une instance de calcul dans OCI. Plus précisément, le travailleur des pipelines d'observabilité :
- Extrayez les journaux du service de diffusion en continu pour OCI à l'aide de la source Kafka.
- Acheminez les journaux vers la destination Journaux Datadog.
Représentation de haut niveau de l'architecture de la solution, comme illustré dans l'image suivante.
Objectifs
- Intégrez Oracle Cloud Infrastructure et Datadog à l'aide des pipelines Datadog Observability.
Préalables
-
Les utilisateurs dans OCI doivent disposer des politiques requises pour les services de diffusion en continu, de centre de connecteurs OCI et de journalisation OCI pour gérer les ressources. Pour obtenir des informations de référence sur les politiques de tous les services, voir Informations de référence sur les politiques.
-
Disponibilité d'une instance de calcul désignée comme travailleur de pipeline d'observabilité Datadog. Pour plus d'informations, voir Création d'une instance.
Tâche 1 : Configurer les journaux pour la capture
Le service Journalisation pour Oracle Cloud Infrastructure est un écran unique hautement évolutif et entièrement géré pour tous les journaux d'une location. Le service de journalisation pour OCI permet d'accéder aux journaux à partir des ressources d'Oracle Cloud Infrastructure. Un journal est une ressource d'Oracle Cloud Infrastructure de première classe qui stocke et saisit les événements de journal collectés dans un contexte donné. Un groupe de journaux est une collection de journaux stockés dans un compartiment. Les groupes de journaux sont des conteneurs logiques pour les journaux. Utilisez des groupes de journaux pour organiser et rationaliser la gestion des journaux en appliquant la politique ou les journaux de regroupement d'Oracle Cloud Infrastructure Identity and Access Management (OCI IAM) pour analyse.
Pour commencer, activez un journal pour une ressource. Les services fournissent des catégories pour les différents types de journaux disponibles pour les ressources. Par exemple, le service de stockage d'objets pour OCI prend en charge les catégories de journaux suivantes pour les seaux de stockage : événements d'accès en lecture et en écriture. Les événements d'accès en lecture saisissent les événements de téléchargement, tandis que les événements d'accès en écriture saisissent les événements d'écriture. Chaque service peut avoir différentes catégories de journaux pour les ressources.
-
Connectez-vous à la console OCI, naviguez jusqu'à Observabilité et gestion, Journalisation et Groupes de journaux.
-
Sélectionnez votre compartiment, cliquez sur Créer un groupe de journaux et entrez les informations suivantes.
- Nom : Entrez
Datadog_log_group
. - Description (Facultatif) : Entrez la description.
- Marqueurs (Facultatif) : Entrez les marqueurs.
- Nom : Entrez
-
Cliquez sur Créer pour créer un groupe de journaux.
-
Sous Ressources, cliquez sur Journaux.
-
Cliquez sur Créer un journal personnalisé ou sur Activer le journal du service, au besoin.
Par exemple, pour activer les journaux d'écriture pour un seau de stockage d'objets OCI, procédez comme suit :
-
Cliquez sur Activer le journal de service.
-
Sélectionnez votre compartiment de ressources et entrez Stockage d'objets dans les services de recherche.
-
Cliquez sur Activer les journaux et sélectionnez le nom du seau de stockage d'objets OCI dans la ressource.
-
Sélectionnez le groupe de journaux (
Datadog_log_group
) créé dans la tâche 1.2 et Écrire des événements d'accès dans la catégorie de journaux. Facultativement, entrezDatadog_bucket_write
comme nom du journal. -
Cliquez sur Activer pour créer votre nouveau journal OCI.
-
Tâche 2 : Créer un flux à l'aide du service de diffusion en continu pour OCI
Le service de diffusion en continu d'Oracle Cloud Infrastructure (OCI) est une plate-forme de diffusion d'événements compatible avec Apache Kafka, en temps réel et sans serveur, pour les développeurs et les scientifiques de données. Elle fournit une solution entièrement gérée, évolutive et durable pour l'ingestion et la consommation de flux de données à volume élevé en temps réel tels que les journaux. Nous pouvons utiliser le service de flux pour OCI dans tous les cas d'utilisation où les données sont produites et traitées en continu et séquentiellement dans un modèle de messagerie de type publication-abonnement.
-
Allez à la console OCI, naviguez jusqu'à Analyse et intelligence artificielle, Messagerie et Diffusion en continu.
-
Cliquez sur Créer un flux pour créer un flux.
-
Entrez les informations suivantes et cliquez sur Créer.
- Nom : Entrez le nom du flux. Pour ce tutoriel, il s'agit de
Datadog_Stream
. - Groupe de flux : Sélectionnez un groupe de flux existant ou créez-en un avec un point d'extrémité public.
- Conservation (en heures) : Entrez le nombre d'heures de conservation des messages dans ce flux.
- Nombre de partitions : Entrez le nombre de partitions pour le flux.
- Taux total d'écriture et Taux total de lecture : Entrez une valeur en fonction de la quantité de données à traiter.
Vous pouvez commencer par les valeurs par défaut pour les tests. Pour plus d'informations, voir Partitionnement d'un flux.
- Nom : Entrez le nom du flux. Pour ce tutoriel, il s'agit de
Tâche 3 : Configurer un centre de connecteurs OCI
Le centre de connecteurs OCI orchestre le déplacement des données entre les services d'Oracle Cloud Infrastructure. Le centre de connecteurs OCI fournit un emplacement central pour décrire, exécuter et surveiller les déplacements de données entre les services, tels que la journalisation OCI, le stockage d'objets OCI, le service de diffusion en continu OCI, OCI Logging Analytics et le service de surveillance OCI. Il peut également déclencher le service des fonctions pour OCI pour le traitement des données légères et le service d'avis pour OCI pour configurer des alertes.
-
Allez à la console OCI, naviguez jusqu'à Observabilité et gestion, Journalisation et Connecteurs.
-
Cliquez sur Créer un connecteur pour le créer.
-
Entrez les informations suivantes .
- Nom : Entrez
Datadog_SC
. - Description (Facultatif) : Entrez la description.
- Compartiment : Sélectionnez votre compartiment.
- Source : Sélectionnez Journalisation.
- Cible : Sélectionnez Flux.
- Nom : Entrez
-
Sous Configurer la connexion source, sélectionnez un nom de compartiment, un groupe de journaux et un journal (groupe de journaux et journal créés dans la tâche 1).
-
Si vous voulez également envoyer des journaux de vérification, cliquez sur +Another Journal et sélectionnez le même compartiment tout en remplaçant
_Audit
par votre groupe de journaux. -
Sous Configurer la cible, sélectionnez un compartiment et un flux (flux créé lors de la tâche 2).
-
Pour accepter les politiques par défaut, cliquez sur le lien Créer fourni pour chacune. Des politiques par défaut sont proposées pour toute autorisation requise pour que ce connecteur puisse accéder aux services sources, aux tâches et aux services cibles.
-
Cliquez sur Créer.
Tâche 4 : Contrôle d'accès pour extraire les journaux
Pour accéder aux données du flux OCI par le pipeline d'observabilité Datadog, créez un utilisateur et accordez des autorisations d'extraction de flux pour l'extraction des journaux.
-
Créez un utilisateur OCI. Pour plus d'informations, voir Gestion des utilisateurs.
-
Créez un groupe OCI (
Datadog_User_Group
) et ajoutez l'utilisateur OCI au groupe. Pour plus d'informations, voir Gestion des groupes. -
Créez la politique IAM OCI suivante.
Allow group <Datadog_User_Group> to use stream-pull in compartment <compartment_of_stream>
Note : Utilisez ces détails d'utilisateur pour extraire les journaux du flux dans la configuration du pipeline d'observabilité Datadog
pipeline.yaml
.
Tâche 5 : Configurer le pipeline d'observabilité Datadog
-
Connectez-vous au portail Datadog et cliquez sur Intégrations, Pipelines d'observabilité.
-
Cliquez sur Démarrer si vous utilisez des pipelines pour la première fois ou cliquez sur Nouveau pipeline. Entrez le nom du pipeline et cliquez sur Suivant.
-
Sélectionnez le modèle de pipeline QuickStart et une plate-forme.
-
Sélectionnez une clé d'API existante ou créez une nouvelle clé d'API et copiez la commande d'installation. Les clés d'API sont uniques à votre organisation. Une clé d'API est requise par l'agent Datadog pour soumettre des mesures et des événements à Datadog.
-
Connectez-vous à l'instance de calcul désignée en tant que travailleur de pipeline d'observabilité sur OCI et exécutez la commande suivante pour installer le travailleur.
L'exécution du script lancera l'installation des pipelines d'observabilité Datadog worker.As faisant partie du processus d'installation. Un fichier nommé
observability-pipelines-worker
sera créé sous le répertoire/etc/default/
avec les variablesDD_API_KEY
,DD_OP_PIPELINE_ID
etDD_SITE
. -
Comme la spécification du mot de passe directement dans le fichier de configuration
pipeline.yaml
n'est pas autorisée, ajoutez le mot de passe pour accéder aux flux OCI (jeton d'authentification de l'utilisateur créé dans la tâche 4) en tant qu'autre variable (DD_KAFKA_PW
) dans le fichier/etc/default/observability-pipelines-worker
. -
Créez un fichier nommé
pipeline.yaml
sous/etc/observability-pipelines-worker/
avec la configuration suivante.Remplacez
username
,topics
etbootstrap_servers
par vos valeurs.sinks: Datadog_OCI_Logs: default_api_key: ${DD_API_KEY} inputs: - OCI_LOGS site: ${DD_SITE} type: datadog_logs sources: OCI_LOGS: bootstrap_servers: <Bootstrap Servers> group_id: datadog sasl: enabled: true mechanism: PLAIN password: ${DD_KAFKA_PW} username: <username> tls: enabled: true topics: - <OCI_Stream_name> type: kafka
Note : Les paramètres ci-dessus peuvent être référencés à partir des paramètres de connexion Kafka. Dans la page des détails du groupe de flux, allez à Ressources et cliquez sur Paramètres de connexion Kafka.
-
Pour démarrer le programme de travail, exécutez la commande suivante.
sudo systemctl restart observability-pipelines-worker
-
Vérifiez le statut du programme Observability Pipelines. Il devrait être en marche.
sudo systemctl status observability-pipelines-worker
Note : Si le programme de pipeline d'observabilité ne parvient pas à démarrer, vérifiez les erreurs dans les messages sous
/var/log/messages
. -
A cette étape, vous devez démarrer un programme de traitement des pipelines d'observabilité avec les données qui circulent à partir de la source dans la console Datadog. Si le programme de traitement des pipelines d'observabilité est en cours d'exécution, vous pouvez cliquer sur Voir le pipeline pour le diriger vers votre pipeline.
Si la configuration du centre de connecteurs OCI et du service de diffusion en continu pour OCI est configurée dans OCI, vous pouvez voir les journaux circulant dans Datadog.
-
Cliquez sur les journaux pour voir les journaux ingérés à partir d'OCI.
Étapes suivantes
Ce tutoriel présente le processus d'intégration d'Oracle Cloud Infrastructure (OCI) et de Datadog. Du côté de la gestion des informations de sécurité et des événements (SIEM), il est essentiel de définir des tableaux de bord pour saisir des mesures critiques et configurer les alertes à déclencher lorsque les seuils prédéfinis sont dépassés. En outre, la définition d'interrogations spécifiques est cruciale pour détecter les activités malveillantes et identifier les modèles dans votre location OCI. Ces actions renforceront votre sécurité et permettront une surveillance proactive de votre environnement en nuage.
Liens connexes
Confirmation
- Auteur - Chaitanya Chintala (service de conseils sur la sécurité en nuage)
Autres ressources d'apprentissage
Explorez d'autres laboratoires sur la page docs.oracle.com/learn ou accédez à plus de contenu d'apprentissage gratuit sur le canal YouTube d'Oracle Learning. De plus, visitez education.oracle.com/learning-explorer pour devenir un explorateur Oracle Learning.
Pour obtenir de la documentation sur le produit, visitez Oracle Help Center.
Integrate Oracle Cloud Infrastructure and Datadog using Datadog Observability Pipelines
F96612-01
April 2024