Prévérifications effectuées par la récupération après sinistre de pile complète
La récupération après sinistre de pile complète effectue des pré-vérifications pour les ressources telles que les groupes de protection de récupération après sinistre, les plans de récupération après sinistre et les exécutions de plan de récupération après sinistre.
Prévérifications de l'instance Compute
- La réplication de groupe de volumes est configurée ou la sauvegarde est configurée avec une stratégie de sauvegarde et la copie inter-région est activée.
- Une réplique de groupe de volumes ou au moins une sauvegarde de groupe de volumes existe dans la région de secours. Plusieurs sauvegardes peuvent également exister car Full Stack DR utilise la dernière sauvegarde de groupe de volumes.
- Tous les volumes d'initialisation et de blocs des machines virtuelles des membres d'un groupe DRPG sont ajoutés au groupe de volumes.
- Le groupe de volumes contient uniquement les volumes d'initialisation et de blocs attachés à la machine virtuelle des membres d'un groupe DRPG.
- Indique si l'utilisateur tente d'ajouter des instances de calcul mobiles à un groupe de protection de récupération après sinistre de secours, ce qui n'est pas autorisé.
Prévérifications pour le système de fichiers :
- Analyse de permutation/basculement/démarrage :
- Vérifie que le système de fichiers source est à l'état Actif et doit être exporté.
- Vérifie que le système de fichiers source ne doit pas avoir de clé de cryptage personnalisée
- Vérifie que tout l'export présent dans le système de fichiers source est mis en correspondance avec la cible de montage de destination dans le cadre de la propriété de membre du système de fichiers et doit être unique (éviter la duplication)
- Vérifie qu'il existe au moins une configuration de stratégie de réplication active sur le système de fichiers source
- Vérifie que la propriété de membre du système de fichiers Domaine de disponibilité de destination se trouve dans la région homologue
- Vérifie que toutes les cibles de montage de destination configurées pour les exports de système de fichiers source se trouvent dans la région homologue et se trouvent dans le même domaine de disponibilité que la propriété de membre Domaine de disponibilité de destination.
- Valide que le système de fichiers cible à l'état Actif et doit être un système de fichiers non exporté
- Vérifie qu'au moins un instantané de réplication doit être présent dans le système de fichiers cible
- Vérifie que le protocole TCP/UDP correct est activé pour les cibles de montage de destination. Reportez-vous à Configuration des règles de sécurité VCN pour File Storage.
- Valide l'OCID dans la stratégie de cliché de destination de propriété de membre de système de fichiers.
- Vérifie que la stratégie d'instantané de destination dans la propriété de membre du système de fichiers existe et présente un état de cycle de vie Actif.
- Vérifie que la clé de cryptage de destination et de coffre de destination dans la propriété de membre du système de fichiers existe et présente l'état de cycle de vie Actif.
- Vérifie que la clé de cryptage de destination dans la propriété de membre du système de fichiers est une clé de cryptage AES symétrique (Advanced Encryption Standard) et présente l'état de cycle de vie Activé.
- Analyse d'arrêt
- Vérifie que le système de fichiers exporté cloné est présent pour le nettoyage
- Vérifie que les exports sont présents dans le système de fichiers exporté cloné pour nettoyage
Prévérifications pour le montage/démontage du système de fichiers sur l'instance de calcul :
- Validations pour la propriété de membre de détail de montage/démontage :
- Détails du montage :
- Vérifie que la cible de montage des détails de montage correspond à la région de secours.
- Vérifie que la combinaison du point de montage et de l'export est unique (évitez le montage multiple sur le même point de montage).
- Détails du démontage :
- Vérifie que la cible de montage des détails de démontage correspond à la région principale.
- Valide que le chemin d'export est présent sur la cible de montage des détails de démontage.
- Vérifie que le protocole TCP/UDP correct est activé pour l'instance de calcul mobile/non amovible et la cible de montage des détails de montage. Reportez-vous à Configuration des règles de sécurité VCN pour File Storage.
- Valide pour l'instance de calcul mobile/non amovible. Le groupe de protection de récupération après sinistre principal doit avoir le système de fichiers montable ou la cible de montage de destination doit avoir le chemin d'export correct à monter.
-
Remarque
Pour un basculement, la vérification suivante est effectuée à l'étape Système de fichiers : montage sur une instance de calcul avec une instance de calcul nouvellement lancée en raison de l'indisponibilité de la région principale
- Vérifie que le module d'extension d'exécution de commandes sur les instances de calcul est activé pour l'instance de calcul.
- Vérifie que l'instance de calcul dispose d'un accès root :
- Pour plus d'informations sur l'obtention de l'accès root sur l'utilisateur ocarun pour le système d'exploitation linux, reportez-vous à Exécution de commandes sur une instance.
- Pour plus d'informations sur l'accès root sur l'utilisateur NT SERVICE/OCARUN pour le système d'exploitation Windows, reportez-vous à Préparation du montage ou du démontage du système de fichiers sur une instance Windows
- Uniquement pour le système d'exploitation Linux, vérifie que
nfs-clientest installé sur l'instance de calcul. Pour plus d'informations sur l'installation denfs-clientsur le calcul, reportez-vous à Mounting File Systems From UNIX-Style Instances. - Uniquement pour le système d'exploitation Linux, vérifiez que les détails de montage du fichier
/etc/fstabdans le système d'exploitation linux doivent être présents avec l'adresse IP de la cible de montage correcte/le nom de domaine qualifié complet et le point de montage. - Pour les deux systèmes d'exploitation, vérifiez que le point de montage est présent sur l'instance de calcul
- Détails du montage :
Prévérifications pour les groupes de volumes (stockage de blocs)
- Le groupe de volumes présente l'état
Available. - Le groupe de volumes comporte une réplication ou des sauvegardes configurées dans la région de secours. Si les deux sont configurés, la récupération après sinistre de pile complète utilise des répliques et ignore les sauvegardes.
- Pour la récupération après sinistre intra-région, les répliques de région de destination (de secours) ne se trouvent pas dans le même domaine de disponibilité.
- La réplique dans la région de secours présente l'état
Availableou, si des sauvegardes sont utilisées, qu'au moins une sauvegarde existe et estAvailable. - La liste des volumes du groupe de volumes source correspond à la liste des volumes dans la réplique ou la sauvegarde de la région de secours.
- La stratégie de sauvegarde de destination est une stratégie de sauvegarde valide.
- Le coffre et la clé de cryptage fournis dans Clé de destination commune sont tous deux valides.
- L'état de cycle de vie du coffre fourni dans la clé de destination commune est Actif.
- La clé de cryptage fournie dans Clé de destination commune présente l'état de cycle de vie Activé
- Le volume source, le coffre de destination et la clé de cryptage fournis dans Mappages de clé de cryptage de volume source vers destination sont tous valides.
- Vous pouvez indiquer la clé de destination commune ou la clé de cryptage du volume source vers la destination mappages. Les deux propriétés de membre ne peuvent pas être fournies.
Prévérifications du volume de blocs pour les instances de calcul non mobiles
Full Stack DR effectue d'abord les prévérifications suivantes pour le volume de blocs pour les instances de calcul non mobiles :
- L'ID de volume de blocs doit être un OCID valide d'un volume de blocs.
- Le volume de blocs ne doit pas comporter de doublons dans les propriétés de membre de la même instance de calcul.
- Le volume de blocs doit être déjà attaché à l'instance de calcul.
- Le volume de blocs doit faire partie d'un membre du groupe de volumes DRPG.
- Si un ID d'instance de référence d'attachement de volume est fourni dans les détails d'attachement, cette instance doit être membre du groupe de protection de récupération après sinistre de secours et l'ID de volume de blocs doit être ajouté dans ses propriétés de membre.
- Si l'ID d'instance de référence d'attachement de volume n'est pas fourni dans les détails de l'attachement, une seule instance de calcul dans le DRPG de secours doit avoir une propriété de membre définie avec cet ID de volume de blocs.
- Les points de montage définis doivent être uniques.
- L'ID de volume de blocs doit être un OCID valide d'un volume de blocs.
- Le volume de blocs ne doit pas comporter de doublons dans les propriétés de membre de la même instance de calcul.
- Le volume de blocs doit provenir de la région du DRPG principal.
- Le volume de blocs doit faire partie d'un membre de groupe de volumes du DRPG principal.
- Le domaine de disponibilité de destination/cible du groupe de volumes (où la sauvegarde ou la réplique sera activée) doit correspondre au domaine de disponibilité de cette instance de calcul de secours.
- Si un ID d'instance de référence d'attachement de volume est fourni dans les détails d'attachement, cette instance homologue doit être membre du DRPG principal et le volume de blocs doit lui être attaché.
- Si l'ID d'instance de référence d'attachement de volume n'est pas fourni dans les détails de l'attachement, le volume de blocs doit être attaché à une seule instance de calcul dans le DRPG principal.
- Les points de montage que vous définissez doivent être uniques.
- Deux volumes de blocs ne doivent pas être configurés pour l'attachement à l'aide d'un même chemin de périphérique.
- Si la pièce jointe utilise des chemins de dispositif, ces derniers ne doivent pas être utilisés.
- Si un volume de blocs est configuré pour être associé à plusieurs instances de calcul, l'association doit disposer d'un accès partageable.
Prévérifications pour le stockage d'objet avec permutation et basculement
Full Stack DR effectue les pré-vérifications suivantes pour le stockage d'objets :
- Switchover :
-
Bucket Object Storage - Prévérification de suppression de réplication (principale)
-
Vérifie que le bucket source est présent.
-
Valide la présence de la stratégie de réplication.
-
Valide que la stratégie de réplication doit se trouver dans la région homologue.
-
-
Bucket Object Storage - Prévérification de configuration de la réplication inverse (de secours)
-
Vérifie que le bucket cible est présent
-
Vérifie que le bucket source est présent
-
-
- Changement de serveur :
-
Bucket Object Storage - Prévérification de suppression de réplication (principale)
-
Vérifie que le bucket source a l'état Actif.
-
Valide la présence de la stratégie de réplication.
-
Valide que la stratégie de réplication doit se trouver dans la région homologue.
-
Vérifie que le bucket cible a l'état Actif.
-
-
Bucket Object Storage - Prévérification de configuration de la réplication inverse (de secours) (poursuivre en cas d'erreur)
- Valide la présence du bucket cible.
- Vérifie que le bucket source est présent.
-
Prévérifications pour Database (Oracle Base Database Service, Oracle Exadata Database Service on Dedicated Infrastructure, Oracle Exadata Database Service on Exascale Infrastructure, Oracle Exadata Database Service on Cloud@Customer)
- Les propriétés de membre de base de données ne sont pas vides ou NULL et l'emplacement du coffre secret de mot de passe fait partie des propriétés de membre de base de données.
- Vous pouvez accéder au coffre de clés secrètes dans lequel le mot de passe de base de données est stocké et la base de données homologue présente l'état
Available. - Data Guard est activé sur les bases de données homologues et sur les bases de données homologues.
- La base de données et la base de données homologue disposent des rôles Data Guard appropriés.
- La base de données et la base de données homologue font partie des deux groupes de protection de récupération après sinistre associés qui font partie de la configuration. La base de données principale fait partie du groupe de protection de récupération après sinistre principal et la base de données de secours fait partie du groupe de protection de récupération après sinistre de secours.
Prévérifications pour Oracle Autonomous Database Serverless
- Les propriétés de membre de base de données autonome ne sont pas vides ou NULL.
- La base de données autonome principale ne comporte pas de liste de bases de données de secours vide.
- La base de données autonome de secours n'est pas dans la même région que la région de base de données principale et n'est pas un pair local.
- La base de données autonome et la base de données autonome homologue font partie des deux groupes de protection de récupération après sinistre associés qui font partie de la configuration.
- Data Guard distant est configuré.
- La base de données homologue distante appartient au groupe DRPG distant.
- L'état de cycle de vie de la base de données principale est
AVAILABLE.Pour les prévérifications de permutation, Full Stack DR effectue les validations supplémentaires suivantes sur la base de données de secours : vérifie que la base de données de secours homologue distante présente l'état correct (
STANDBY). - Si le coffre et la clé de cryptage fournis dans Clé de cryptage de destination sont valides.
- L'ID de coffre dans la clé de cryptage de destination présente l'état de cycle de vie Actif.
- L'ID de cryptage dans la clé de cryptage de destination présente l'état de cycle de vie Activé.
Prévérifications pour la base de données Conteneur Autonomous Oracle
- Les propriétés de membre de la base de données Conteneur Autonomous ne sont pas vides ou NULL.
- La liste de bases de données de secours de la base de données Conteneur Autonomous principale n'est pas vide.
- La base de données autonome et la base de données autonome homologue font partie des deux groupes de protection de récupération après sinistre associés qui font partie de la configuration.
- Remote Data Guard est configuré.
- La base de données homologue distante appartient au DRPG distant.
- Les états de cycle de vie de la base de données Conteneur Autonomous principale et de secours sont
AVAILABLE.Pour les prévérifications de permutation, Full Stack DR effectue les validations supplémentaires suivantes sur la base de données de secours : vérifie que la base de données de secours homologue distante présente l'état correct (
STANDBY).
Prévérifications pour Kubernetes Engine (OKE)
Full Stack DR effectue les prévérifications suivantes pour Kubernetes Engine (OKE).
- Vérifie la connexion au cluster principal.
- Vérifie si la sauvegarde a plus d'un jour.
- Télécharge et imprime le journal de sauvegarde.
- Valide que l'état de cycle de vie du cluster OKE principal est Actif.
- Vérifie que l'espace de noms et le bucket dans les propriétés du membre principal existent et sont valides.
- Valide que le planning de sauvegarde dans les propriétés du membre principal est au format RFC 5545.
- Valide pour la partie Règle non prise en charge.
- Valide la plage pour chaque partie de règle.
- Valide la mise en correspondance de l'équilibreur de charge dans les propriétés de membre principal pour les contraintes suivantes.
- SourceLoadBalancerId et DestinationLoadBalancerId ont des OCID de LOADBALANCER.
- La correspondance d'équilibreur de charge doit être unique.
- A-B, C-B -> Non autorisé
- A-B, A-D -> Non autorisé
Remarque
Par exemple, si vous disposez d'un ensemble de deux équilibreurs de charge dans la région principale (par exemple,load_balancer_A and load_balancer_C). Vous disposez d'un autre ensemble de deux équilibreurs de charge dans la région de secours (par exemple,load_balancer_B and load_balancer_D). Ainsi, lors de l'ajout d'un cluster OKE en tant que membre, vous devez ajouter la propriété de mappings d'équilibreur de charge. Dans ce mapping, seul le mapping suivant est autorisé :
. Toutefois, les mappings suivants ne sont pas autorisés carload_balancer_A <--> load_balancer_B & load_balancer_C <--> load_balancer_D or load_balancer_C <--> load_balancer_B & load_balancer_A <--> load_balancer_Dload_balancer_Best défini en tant qu'équilibreur de charge de destination dans les deux mappings :load_balancer_A <--> load_balancer_B & load_balancer_C <--> load_balancer_B
- Valide la mise en correspondance d'équilibreur de charge réseau dans les propriétés de membre principal pour les contraintes suivantes.
- SourceNetworkLoadBalancerId et DestinationNetworkLoadBalancerId ont des OCID de NETWORKLOADBALANCER.
- La correspondance d'équilibreur de charge réseau doit être unique.
- A-B, C-B -> Non autorisé
- A-B, A-D -> Non autorisé
Remarque
Par exemple, si vous disposez d'un ensemble de deux équilibreurs de charge réseau dans la région principale (par exemple,network_load_balancer_A and network_load_balancer_C). Vous disposez d'un autre ensemble de deux équilibreurs de charge réseau dans la région de secours (par exemple,network_load_balancer_B and network_load_balancer_D). Ainsi, lors de l'ajout d'un cluster OKE en tant que membre, vous devez ajouter la propriété de mappings d'équilibreur de charge réseau. Dans ce mapping, seul le mapping suivant est autorisé :network_load_balancer_A <--> network_load_balancer_B & network_load_balancer_C <--> network_load_balancer_D or network_load_balancer_C <--> network_load_balancer_B & network_load_balancer_A <--> network_load_balancer_D
- Valide le mapping de coffre dans les propriétés de membre principal pour les contraintes suivantes.
- SourceVaultId et DestinationVaultId ont des OCID d'archivage.
- Le mapping de coffre doit être unique.
- A-B, C-B -> Non autorisé.
- A-B, A-D -> Non autorisé.
Remarque
Par exemple, si vous disposez d'un ensemble de deux coffres dans la région principale (par exemple,vault_A and vault_C). Vous disposez d'un autre ensemble de deux coffres dans la région de secours (par exemple,vault_B and vault_D). Ainsi, lors de l'ajout d'un cluster OKE en tant que membre, vous devez ajouter la propriété des mappings de coffre. Dans ce mapping, seul le mapping suivant est autorisé :vault_A <--> vault_B & vault_C <--> vault_D or vault_C <--> vault_B & vault_A <--> vault_D
- Vérifie que l'ID de cluster homologue et l'emplacement de sauvegarde dans les propriétés du membre principal ne sont pas vides.
- Valide l'hôte Jump dans les propriétés de membre principal pour les contraintes suivantes.
- Le groupe de protection de récupération après sinistre doit contenir une instance de calcul avec le même OCID que l'hôte de saut.
- L'hôte Jump doit être une instance de calcul non amovible.
- L'état de cycle de vie de l'hôte de saut doit être RUNNING.
- Valide l'ID de cluster homologue dans les propriétés de membre principal pour les contraintes suivantes.
- Valide que le groupe de protection de récupération après sinistre homologue comporte un cluster avec l'ID de cluster homologue.
- Valide que le cluster membre lui-même n'est pas ajouté en tant que cluster homologue.
- Vérifie que le cluster homologue fourni dans les propriétés de membre n'est pas ajouté en tant que cluster homologue pour l'autre cluster OKE dans le groupe de protection de récupération après sinistre.
- Valide les pools de noeuds dans le cluster OKE de la région principale pour les contraintes suivantes.
- Valide que le nombre de noeuds dans tous les pools de noeuds est d'au moins un.
- Valide qu'il existe au moins un noeud actif dans tous les pools de noeuds.
- Exemple : s'il existe deux pools de noeuds, un noeud n'a pas de noeud actif, mais un autre a un noeud actif, cela entraînerait une exception.
- Valide l'ID d'équilibreur de charge source dans les propriétés de membre principal pour les contraintes suivantes.
- Le cycle de vie doit être actif.
- L'équilibreur de charge ne peut comporter que des sous-réseaux régionaux.
- Valide l'ID d'équilibreur de charge réseau source dans les propriétés de membre principal pour les contraintes suivantes.
- Le cycle de vie doit être actif.
- L'équilibreur de charge réseau ne peut comporter que des sous-réseaux régionaux.
- Valide que l'ID de coffre source dans les propriétés de membre principal est Actif.
- Valide la configuration du pool de noeuds gérés dans les propriétés de membre principal pour les contraintes suivantes.
- Le type de membre doit être MANAGED.
- Le cycle de vie doit être ACTIF.
- La somme du nombre de noeuds ('maximum' dans la configuration de noeud géré ou du nombre de noeuds existants, selon la valeur la plus élevée) pour tous les pools de noeuds du cluster ne doit pas dépasser la limite.
- Valide la configuration du pool de noeuds virtuels dans les propriétés de membre principal pour les contraintes suivantes.
- Le type de membre doit être VIRTUEL.
- Le cycle de vie doit être ACTIF.
- La somme du nombre de noeuds ('maximum' dans la configuration de noeud virtuel ou du nombre de noeuds existant, selon la valeur la plus élevée) pour tous les pools de noeuds du cluster ne doit pas dépasser la limite.
Cluster de secours
- Vérifie si les espaces de noms font partie de la sauvegarde.
- Vérifie si tous les volumes de blocs référencés dans les volumes persistants font partie du groupe de protection de récupération après sinistre.
- Vérifie si tous les systèmes de fichiers/cibles de montage référencés dans les volumes persistants font partie du groupe de protection de récupération après sinistre.
- Vérifie si tous les équilibreurs de charge référencés dans la classe entrante font partie du groupe de protection de récupération après sinistre.
- Vérifie si tous les coffres référencés dans
secretproviderclassesfont partie du groupe de protection de récupération après sinistre. - Vérifie si les définitions de ressource personnalisées sont compatibles avec la version du cluster de secours.
- Valide que l'état de cycle de vie du cluster OKE de secours est Actif.
- Valide que l'ID de cluster homologue et l'emplacement de sauvegarde dans les propriétés de membre de secours ne doivent pas être vides.
- Valide l'hôte Jump dans les propriétés de membre de secours pour les contraintes suivantes.
- Le groupe de protection de récupération après sinistre doit contenir une instance de calcul avec le même OCID que l'hôte de saut.
- L'hôte Jump doit être une instance de calcul non amovible.
- L'état de cycle de vie de l'hôte de saut doit être RUNNING.
- Valide l'ID de cluster homologue dans les propriétés de membre de secours pour les contraintes suivantes.
- Vérifie que le groupe de protection de récupération après sinistre homologue comporte un cluster avec l'ID de cluster homologue.
- Vérifie que le cluster membre lui-même n'est pas ajouté en tant que cluster homologue.
- Vérifie que le cluster homologue fourni dans les propriétés de membre n'est pas ajouté en tant que cluster homologue pour un autre cluster OKE dans le groupe de protection de récupération après sinistre.
- Valide l'ID d'équilibreur de charge de destination dans les propriétés de membre principal pour les contraintes suivantes.
- Le cycle de vie doit être actif.
- L'équilibreur de charge ne peut comporter que des sous-réseaux régionaux.
- Valide l'ID d'équilibreur de charge réseau de destination dans les propriétés de membre principal pour les contraintes suivantes.
- Le cycle de vie doit être actif.
- L'équilibreur de charge réseau ne peut comporter que des sous-réseaux régionaux.
- Valide que l'ID de coffre de destination dans les propriétés de membre principal est Actif.
- Valide la configuration du pool de noeuds gérés dans les propriétés de membre de secours pour les contraintes suivantes.
- Le type de membre doit être MANAGED.
- Le cycle de vie doit être actif.
- La somme du nombre de noeuds ('maximum' dans la configuration de noeud géré ou du nombre de noeuds existants, selon la valeur la plus élevée) pour tous les pools de noeuds du cluster ne doit pas dépasser la limite.
- Valide la configuration du pool de noeuds virtuels dans les propriétés de membre de secours pour les contraintes suivantes.
- Le type de membre doit être VIRTUEL.
- Le cycle de vie doit être actif.
- La somme du nombre de noeuds ('maximum' dans la configuration de noeud virtuel ou du nombre de noeuds existant, selon la valeur la plus élevée) pour tous les pools de noeuds du cluster ne doit pas dépasser la limite.
- Valide les pools de noeuds dans le cluster OKE de la région de secours pour les contraintes suivantes.
- Valide que le nombre de noeuds dans tous les pools de noeuds est d'au moins un.
- Valide qu'il existe au moins un noeud actif dans tous les pools de noeuds.
- Vérifie que le pool de noeuds du cluster de destination doit comporter au moins un noeud dans chaque domaine de disponibilité où FSS/Block sera restauré.
- Valide les règles securityList et de groupe de sécurité réseau définies sur le groupe de sécurité sous-réseau/réseau des pools de noeuds et des pools de noeuds virtuels fournis dans le cluster en veillant à ce que les règles suivantes soient définies.
- Règles entrantes avec conservation de statut
- les ports TCP 111, 2048, 2049 et 2050, et
- Ports UDP 111 et 2048
- Règles sortantes avec conservation de statut
- les ports source TCP 111, 2048, 2049 et 2050, et
- Port source UDP 111.
Remarque
La validation n'est applicable que si le cluster OKE a une valeur PV ou PVC pour le système de fichiers. Full Stack DR vérifie uniquement les scénarios suivants :- Scénario A : la cible de montage et l'instance se trouvent dans des sous-réseaux différents (recommandé).
- Scénario B : la cible de montage et l'instance se trouvent dans le même sous-réseau.
Full Stack DR ne vérifie pas les scénarios suivants :
- Scénario C : cible de montage et instance utilisant le cryptage TLS en transit.
- Scénario D : la cible de montage utilise LDAP pour l'autorisation.
- Règles entrantes avec conservation de statut
Prévérifications pour le système de base de données MySQL HeatWave
Full Stack DR effectue les prévérifications suivantes pour le système de base de données MySQL :
- Permutation de rôles :
- Vérifie que l'état de cycle de vie des systèmes de base de données MySQL HeatWave principal et de secours est Actif.
- Vérifie que le système de base de données cible est présent dans le groupe de protection de récupération après sinistre homologue en tant que membre, qui dispose également d'une propriété de système de base de données cible correspondant à l'OCID de système de base de données MySQL principal.
- Vérifie que le système de base de données MySQL principal est en mode Lecture/écriture.
- Vérifie que le système de base de données MySQL cible est en mode Lecture seule.
- Vérifie que la clé secrète de coffre du système de base de données MySQL principal fournie pour l'utilisateur Admin et Replication est à l'état Disponible.
- Vérifie que la clé secrète de coffre du système de base de données MySQL de secours fournie pour l'utilisateur Admin et Replication est à l'état Disponible.
- Vérifie qu'un canal actif est présent entre le système de base de données MySQL principal et le système de base de données MySQL cible.
Remarque
En cas d'échec, Full Stack DR affiche un avertissement. - Valide la connectivité entre l'instance de conteneur et les deux noeuds de base de données MySQL.
- Vérifie que l'exécution GTID est présente pour les systèmes de base de données principal et cible.
- Basculement :
- Vérifie que l'état de cycle de vie du système de base de données MySQL de secours est Actif.
- Vérifie que le système de base de données cible est présent dans le groupe de protection de récupération après sinistre homologue en tant que membre, qui dispose également de la propriété de système de base de données cible correspondant à l'OCID de système de base de données MySQL principal.
- Vérifie que le système de base de données MySQL cible est en mode Lecture.
- Vérifie que la clé secrète de coffre du système de base de données MySQL de secours fournie pour l'utilisateur Admin et Replication est à l'état Availabe.
- Vérifie qu'un canal actif est présent entre le système de base de données MySQL principal et les systèmes de base de données MySQL cible.
- Valide la connectivité entre l'instance de conteneur et les deux noeuds de base de données MySQL.
- Vérifie que l'exécution GTID est présente pour les systèmes de base de données principal et cible.
- Démarrer l'analyse :
- Vérifie que l'état de cycle de vie du système de base de données MySQL pour le système de base de données principal et le système de base de données de secours est Actif.
- Vérifie que le système de base de données cible est présent dans le groupe de protection de récupération après sinistre homologue en tant que membre, qui possède également la propriété de système de base de données cible qui correspond à l'OCID de système de base de données MySQL principal.
- Vérifie que le système de base de données MySQL principal est en mode lecture/écriture.
- Vérifie que le système de base de données MySQL cible est en mode lecture.
- Vérifie que la sauvegarde est présente sur le système de base de données MySQL cible à restaurer.
- Vérifie qu'un canal actif est présent entre le système de base de données MySQL principal et les systèmes de base de données MySQL cible.
- Arrêter l'analyse :
Valide que la base de données MySQL restaurée est présente dans la région homologue pour être nettoyée.
Rubrique parent : Référence