Configuration de IaaS pour Private Cloud Appliance

Vous devez configurer le réseau, le calcul, le stockage, le système d'exploitation et installer Oracle Grid Infrastructure et le logiciel de base de données Oracle RAC pour pouvoir créer une base de données Oracle RAC sur Oracle Private Cloud Appliance. La configuration IaaS sur Private Cloud Appliance ressemble à l'architecture suivante.



rac-pca-architecture.zip

Avant de créer l'infrastructure, passez en revue les hypothèses et considérations suivantes :

  • Tous les noeuds (machines virtuelles) d'un environnement Oracle RAC doivent se connecter à au moins un réseau public pour permettre aux utilisateurs et aux applications d'accéder à la base de données.
  • En plus du réseau public, Oracle RAC requiert une connectivité de réseau privé utilisée exclusivement pour la communication entre les noeuds et les instances de base de données en cours d'exécution sur ces noeuds.
  • Lorsque vous utilisez Oracle Private Cloud Appliance, une seule interconnexion de réseau privé peut être configurée. Ce réseau est communément appelé interconnexion. Le réseau d'interconnexion est un réseau privé qui connecte tous les serveurs du cluster.
  • En plus d'accéder à l'interface utilisateur de l'enclave de calcul (CEUI), vous devez également configurer l'interface de ligne de commande OCI sur une machine virtuelle Bastion pour exécuter les commandes à l'aide d'OCI au lieu de compter sur CEUI.

Les sections suivantes expliquent comment créer des structures de calcul, de réseau et de stockage sur un système Private Cloud Appliance.

Configurer le réseau

  1. Créez un réseau cloud virtuel (VCN) et définissez une plage CIDR valide. Vous pouvez utiliser l'interface utilisateur de calcul enclave (CEUI) ou l'interface de ligne de commande OCI.
  2. Créez un sous-réseau public et un sous-réseau privé. En outre, définissez des passerelles telles qu'une passerelle de routage dynamique, une passerelle Internet, des règles de sécurité, des options DHCP et des tables de routage.
  3. Créez une zone DNS principale et un enregistrement de zone DNS.
  4. Inscrivez le nom SCAN et les adresses IP virtuelles dans les enregistrements de zone DNS. Configurez comme suit :
    • Enregistrez le nom SCAN résolu en trois adresses IP différentes dans la zone DNS à l'aide de Customer Enclave ou de l'interface de ligne de commande OCI.
    • Enregistrez le nom IP virtuel avec l'adresse IP dans la zone DNS à l'aide de Customer Enclave ou de l'interface de ligne de commande OCI pour chaque noeud du cluster Oracle RAC.
    [root@vmrac1 ~]#nslookup node1_name-vip.domain_name
    Server: X.X.X.X
    Address: X.X.X.X
    Name: node1-vip.domain_name
    Address: X.X.X.Y4
    [root@vmrac2 ~]#nslookup node2_name-vip.domain_name
    Server: X.X.X.X
    Address: X.X.X.X
    Name: node2-vip.domain_name
    Address: X.X.X.Y5
  5. Créez une stratégie de pilotage et ajoutez-y des réponses en tant que trois adresses IP, avec le même nom SCAN.
  6. Ajoutez une stratégie de pilotage et associez la zone DNS à la stratégie de pilotage.
  7. Vérifiez les résultats du nom SCAN. Par exemple :
    [root@vmrac1 ~]# nslookup SCAN_name.domain_name
    Server: X.X.X.X
    Address: X.X.X.X
    Name: SCAN_name
    Address: X.X.X.Y1
    Name: SCAN_name
    Address: X.X.X.Y2
    Name: SCAN_name
    Address: X.X.X.Y3

Configuration des noeuds de calcul

Cette procédure explique comment créer des machines virtuelles de calcul.
  1. Lancez deux machines virtuelles dans le même sous-réseau public. Configurez les machines virtuelles comme suit :
    • Deux instances de calcul Private Cloud Appliance avec des images de plate-forme OL7.9.
    • Forme de machine virtuelle VM.PCAStandard1.x. Où x doit être suffisamment grand pour fournir des UC aux noeuds de cluster et à au moins deux cartes d'interface réseau virtuelles. Chaque noeud de cluster doit comporter au moins deux OCPU.
    • Activez l'option Ignorer la vérification de source/destination pour la carte d'interface réseau virtuelle principale (par défaut) sur les deux noeuds. Pour plus d'informations, reportez-vous à la section "Mise à jour d'une carte d'interface réseau virtuelle" dans le Guide de l'utilisateur Oracle Private Cloud Appliance.
  2. Configurez les adresses IP secondaires sur les deux noeuds de calcul comme suit :
    • Pour chaque instance de calcul, une carte d'interface réseau virtuelle principale est déjà créée par noeud de cluster.
    • Dans le même sous-réseau VCN que la VNIC principale de l'instance de calcul.
    • Son adresse IP principale est affectée à un nom d'hôte, qui est le nom d'hôte du cluster prévu.
    • Affectez une adresse IP secondaire à cette carte d'interface réseau virtuelle avec le nom d'hôte affecté cluster-node-name-vip.
  3. Configurez les adresses IP privées sur les deux noeuds du même sous-réseau privé comme suit :
    • Pour chaque instance de calcul, créez une carte d'interface réseau virtuelle secondaire par noeud de cluster. Pour plus d'informations, reportez-vous à Configuration du système d'exploitation de l'instance pour une carte d'interface réseau virtuelle secondaire dans le Guide de l'utilisateur Oracle Private Cloud Appliance. Vous devrez peut-être télécharger et exécuter le script Oracle secondary_vnic_all_configure.sh, et modifier les fichiers /etc/sysconfig/network-scripts/ifcfg* pour activer une carte d'interface réseau virtuelle secondaire.
    • Ajoutez la deuxième carte d'interface réseau virtuelle dans le sous-réseau privé sur les deux noeuds après le lancement des instances. Cette opération affecte une adresse IP de la plage CIDR de sous-réseau privé.
    • Assurez-vous que tous les pare-feu sont désactivés pour permettre au trafic d'interconnexion privée de passer sans problème.
    • Mettez à jour l'entrée des adresses IP privées dans le fichier /etc/hosts.
    • Vous pouvez éventuellement entrer une adresse IP ou laisser le système affecter une adresse IP à partir de la plage CIDR de sous-réseau privé.
    Cat /etc/hosts
    127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
    ::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
    X.X.X.A1 node1 node1.domain_name 
    X.X.X.A2 node2 node2.domain_name
    X.X.X.A3 node1-vip node1-vip.domain_name
    X.X.X.A4 node2-vip node2-vip.domain_name
    X.X.Y.B1 node1-priv node1-priv.domain_name
    X.X.Y.B2 node2-priv node2-priv.domain_name
    
    Le fichier /etc/hosts sur les deux noeuds doit contenir des entrées pour les adresses IP publiques, les adresses IP virtuelles et les adresses IP privées, comme indiqué dans l'exemple ci-dessus.
  4. Attachez un volume de blocs local à chaque noeud.
    Pour chaque instance de calcul, créez un volume de blocs par noeud de cluster, puis attachez-le à l'instance de calcul en mode lecture/écriture. Ce volume sera utilisé pour les répertoires de base Grid Infrastructure et Oracle Database.

Configurer le stockage

Oracle RAC utilise Oracle Automatic Storage Management (Oracle ASM) pour un accès efficace au stockage partagé. Oracle Automatic Storage Management (Oracle ASM) agit en tant que gestionnaire de volumes en cluster sous-jacent. Il fournit à l'administrateur de base de données une interface de gestion du stockage simple et cohérente sur toutes les plates-formes de serveur et de stockage. En tant que gestionnaire de volumes et de systèmes de fichiers verticalement intégrés, spécialement conçu pour les fichiers Oracle Database, Oracle Automatic Storage Management (Oracle ASM) offre les performances des E/S brutes grâce à la gestion facile d'un système de fichiers.
  1. Créez des groupes de disques de stockage partagé. Créez au moins un volume de blocs, qui sera utilisé pour le groupe de disques Oracle Automatic Storage Management (Oracle ASM). Ce volume de blocs doit être attaché en mode partagé aux deux machines virtuelles, configurer AFD pour les disques Oracle Automatic Storage Management (Oracle ASM) et créer AFD_label à l'aide de la commande asmcmd. Ces volumes de blocs seront utilisés pour les disques partagés de cluster sous ASM.
  2. Assurez-vous que les autorisations des disques sont configurées comme suit :
    chown grid:asmadmin /dev/sdc
  3. Définissez les autorisations de disque persistantes après les réinitialisations. Créez le fichier suivant et mettez à jour les autorisations de disque :
    /etc/udev/rules.d
  4. Créez un point de montage de stockage local, configuré comme suit :
    • Créez deux volumes de blocs à utiliser pour le point de montage local de chaque noeud. Pour chaque machine virtuelle, un volume de blocs nouvellement créé en mode lecture/écriture doit être attaché.
    • Créez un point de montage local sur chaque machine virtuelle en tant que /u01 sur chaque noeud.
    • Créez le système de fichiers sur ce volume de blocs, puis créez un élément /u01 sur chaque noeud. Créez le système de fichiers sur /u01 sur chaque noeud.
    • Veillez à ajouter une entrée dans /etc/fstab afin qu'elle reste persistante après les réinitialisations. Ce point de montage sera utilisé pour le répertoire de base Oracle Grid Infrastructure et le répertoire de base Oracle Database sur chaque noeud.

Configuration du système d'exploitation

Configurez des utilisateurs, des groupes et des environnements pour Oracle Grid Infrastructure et Oracle RAC.
  1. Créez les utilisateurs Grid et Oracle avec un groupe principal et secondaire et vérifiez les ID utilisateur sur les deux noeuds.
    [root@vmrac1 ~]#groupadd -g 201 oinstall
    groupadd -g 200 dba
    groupadd -g 202 asmadmin
    groupadd -g 203 asmdba
    [root@vmrac1 ~]#useradd -u 200 -g oinstall -G dba,asmdba oracle
    useradd -u 123 -g oinstall -G dba,asmdba,asmadmin grid
    id oracle
    id grid
    root@vmrac2 ~]#groupadd -g 201 oinstall
    groupadd -g 200 dba
    groupadd -g 202 asmadmin
    groupadd -g 203 asmdba
    [root@vmrac2 ~]#useradd -u 200 -g oinstall -G dba,asmdba oracle
    useradd -u 123 -g oinstall -G dba,asmdba,asmadmin grid
    id oracle
    id grid
  2. Exécutez ces commandes sur les deux noeuds en tant qu'utilisateur root pour créer les répertoires d'installation du logiciel.
    [root@vmrac1 ~]#mkdir -p /u01/app/21.0.0/grid
    chown grid:oinstall /u01/app/21.0.0/grid
    mkdir -p /u01/app/grid
    mkdir -p /u01/app/oracle
    chown -R grid:oinstall /u01 
    chown oracle:oinstall /u01/app/oracle
    chmod -R 775 /u01/
    mkdir /etc/oraInventory
    chown grid:oinstall /etc/oraInventory
    chmod 770 /etc/oraInventory
  3. Configurez la configuration SSH sans mot de passe pour les trois utilisateurs : root, grid et oracle. Si vous ne disposez pas de séparation des rôles, un seul utilisateur oracle est nécessaire pour les logiciels de base de données Oracle Grid Infrastructure et Oracle RAC.

Configuration d'Oracle Grid Infrastructure et du logiciel de base de données Oracle RAC

  1. Préparez les logiciels de base de données Oracle Grid Infrastructure et Oracle RAC.
  2. Créez un répertoire intermédiaire. Par exemple : /u01/app/stage.
  3. Préparez le logiciel Oracle Grid Infrastructure dans un répertoire intermédiaire (/u01/app/stage), puis décompressez le logiciel Oracle Grid Infrastructure dans le répertoire d'installation du logiciel (/u01/app/21.0.0/grid).
  4. Exécutez l'utilitaire de vérification de cluster pour vérifier qu'il respecte les prérequis d'installation. Par exemple : GI_HOME/bin/runcluvfy.sh stage -pre crsinst -n node1,node2 -fixup -verbose.
    /u01/app/21.0.0/grid/bin/runcluvfy.sh stage -pre crsinst -n racvm1,racvm2 -fixup -verbose
    Corrigez les erreurs éventuelles dans la sortie de vérification du cluster avant de poursuivre l'installation. Le script de correction généré par la commande cluvfy peut également être utilisé.