Installation d'un cluster à l'aide du programme d'installation assisté

Installez un cluster Container Platform OpenShift sur OCI à l'aide du programme d'installation assisté de Red Hat.

Avant de commencer, vérifiez la section Prérequis de cette documentation. Le workflow du programme d'installation assisté comporte trois étapes principales :
  1. Génération de l'image ISO de découverte (console Red Hat).
  2. Provisionnement de l'infrastructure de cluster (console OCI).
  3. Fin de l'installation (console Red Hat).

Partie 1 : Génération du fichier ISO de découverte (console Red Hat)

Les noeuds de calcul du cluster nécessitent une image ISO de repérage préconfigurée pour valider les configurations réseau et matérielles lors du déploiement du cluster. Suivez les étapes décrites dans Utilisation du programme d'installation assisté pour générer une image ISO de découverte compatible OCI (documentation Red Hat) afin de générer et de télécharger l'image ISO de découverte à l'aide de la console cloud hybride Red Hat. Revenez ensuite à ce guide pour la partie 2 : infrastructure de provisionnement (console OCI)

Partie 2 : Infrastructure de provisionnement (console OCI)

Téléchargez l'ISO de repérage et configurez l'infrastructure à l'aide du module d'extension Red Hat OpenShift et du gestionnaire de ressources dans la console OCI.

Dans les tâches de cette section, vous travaillez dans la console OCI pour télécharger l'image ISO de repérage et provisionner les ressources d'infrastructure de cluster, comme indiqué dans Fichiers de configuration. Pour obtenir la liste des ressources créées par le script Terraform utilisé pour cette méthode d'installation, reportez-vous à Ressources définies Terraform pour OpenShift. Vous indiquez un compartiment et un bucket Object Storage existants pour le cluster. Si vous avez besoin d'instructions pour créer ces ressources, reportez-vous à Création d'un compartiment et à Création d'un bucket Object Storage.

Téléchargement d'une image ISO Red Hat vers Object Storage

  1. Dans la console OCI, créez un bucket Object Storage et téléchargez l'ISO de repérage vers le bucket.
  2. Recherchez l'ISO de repérage téléchargée et procédez comme suit :
    1. Créez une demande pré-authentifiée pour ISO dans Object Storage.
    2. Copiez l'URL générée à utiliser en tant qu'URI de source d'image OpenShift à l'étape suivante. Pour plus d'informations, reportez-vous à Demandes pré-authentifiées pour Object Storage.

Création de l'infrastructure de plate-forme de conteneur OpenShift

Suivez les étapes de configuration de l'infrastructure nécessaire pour le cluster OpenShift.
Remarque

  • Exécutez la pile create-resource-attribution-tags avant d'exécuter la pile create-cluster pour éviter tout échec d'installation.
  • La pile create-resource-attribution-tags doit être exécutée une seule fois. Si l'espace de noms de balise et les balises définies existent déjà, vous pouvez ignorer cette étape pour les installations futures.
  1. Ouvrez le menu de navigation et sélectionnez Services de développeur, puis Red Hat OpenShift.
  2. Sur la page Informations sur la pile, entrez un nom et une description facultatifs.
    • La dernière version de la pile Terraform est téléchargée automatiquement.
    • Les champs Créer dans le compartiment et Version de Terraform sont préremplis.
  3. (Facultatif) Dans la section Balises, ajoutez des balises pour organiser les ressources.
    1. Dans la liste déroulante Espace de noms de balise, sélectionnez un espace de noms de balise approprié.
    2. Dans le champ Clé de balise, indiquez une clé de balise.
    3. Dans le champ Valeur de la balise, indiquez une valeur pour la balise.
    4. Sélectionnez Ajouter une balise.
  4. Sélectionnez Suivant.
  5. Sur la page Configurer les variables, vérifiez et configurez les variables requises pour les ressources d'infrastructure que la pile crée lorsque vous exécutez le travail Appliquer pour ce plan d'exécution.
  6. Dans la section OpenShift Cluster Configuration, vérifiez et configurez les champs suivants :

    OpenShift Configuration de cluster

    Champ Description
    OCID de location

    OCID de la location en cours.

    Valeur par défaut : location en cours

    Compartiment

    OCID du compartiment dans lequel créer le cluster OpenShift.

    Valeur par défaut : compartiment en cours

    Nom de cluster

    Nom du cluster OpenShift.

    Remarque : utilisez la même valeur pour le nom de cluster que celle indiquée dans la console Red Hat Hybrid Cloud et assurez-vous qu'il est compatible avec DNS.

    Méthode d'installation

    Méthode d'installation que vous souhaitez utiliser pour installer le cluster.

    Valeur par défaut : Programme d'installation assisté

    Création d'une image et d'instances OpenShift

    Permet de créer une image et des instances OpenShift.

    Valeur par défaut : True

    OpenShift URI de source d'image

    URL de demande pré-authentifiée créée dans la tâche précédente, Téléchargement d'une image ISO Red Hat vers Object Storage.

    Remarque : ce champ est visible uniquement lorsque la case Créer une image et des instances OpenShift est cochée.

  7. Dans la section OpenShift Balises d'attribution de ressource, vérifiez et configurez le champ suivant :

    OpenShift Balises d'attribution des ressources
    Champ Description
    Compartiment d'espace de noms de balise pour les balises d'attribution de ressource OpenShift

    Compartiment d'espace de noms de balise pour les balises d'attribution de ressource OpenShift.

    Remarque : assurez-vous que la balise indiquée existe avant d'appliquer la pile Terraform. Par défaut, le compartiment en cours est celui dans lequel l'espace de noms de balise est créé pour le balisage des ressources. Pour OpenShift Attribution sur les ressources OCI, l'espace de noms de balise et les balises définies sont définis sur openshift-tags et openshift-resource. Si l'espace de noms openshift-tags existe déjà, assurez-vous qu'il est correctement défini et appliqué. Par exemple : defined-tags" - {"openshift-tags"- {"openshift-resource" - "openshift-resource-infra"} }

  8. Dans la section Configuration du noeud de plan de contrôle, vérifiez et configurez les champs suivants :

    Configuration de noeud de plan de contrôle

    Remarque : cette section est visible uniquement lorsque la case URI de source d'image OpenShift est cochée.

    Champ Description
    Forme du plan de contrôle

    Forme d'instance de calcul des noeuds de plan de contrôle. Pour plus d'informations, reportez-vous à Formes de calcul.

    Valeur par défaut : VM.Standard.E5. Modif.

    Nombre de noeuds du plan de contrôle

    Nombre de noeuds de plan de contrôle dans le cluster.

    Valeur par défaut: 3

    OCPU de noeud de plan de contrôle

    Nombre d'OCPU disponibles pour chaque forme de noeud de plan de contrôle.

    Valeur par défaut: 4

    Mémoire du noeud du plan de contrôle

    Quantité de mémoire disponible, en gigaoctets (Go), pour chaque forme de noeud de plan de contrôle.

    Valeur par défaut: 24

    Volume d'initialisation de noeud de plan de contrôle

    Taille du volume d'initialisation (Go) de chaque noeud de plan de contrôle.

    Valeur par défaut: 1024

    VPU de noeud de plan de contrôle

    Nombre d'unités de performance de volume (VPU) appliquées au volume, par 1 Go, de chaque noeud de plan de contrôle.

    Valeur par défaut: 100

    Répartir les instances de plan de contrôle entre AD

    Active la distribution automatique des instances de plan de contrôle entre les domaines de disponibilité dans une séquence circulaire, à partir du domaine de disponibilité sélectionné. Si cette option n'est pas sélectionnée, tous les noeuds sont créés dans le domaine de disponibilité de démarrage sélectionné.

    Valeur par défaut : True

    (Facultatif) Démarrage d'AD

    Domaine de disponibilité utilisé pour le positionnement initial des noeuds. Les noeuds supplémentaires sont automatiquement répartis entre les domaines de disponibilité dans une séquence circulaire, à partir du domaine de disponibilité sélectionné.

    Répartir les instances de plan de contrôle entre les FD

    Répartit les instances de plan de contrôle entre les domaines de pannes dans une séquence circulaire. Si cette option n'est pas sélectionnée, le service OCI Compute les distribue en fonction de la disponibilité des formes et d'autres critères.

    Valeur par défaut : True

  9. Dans la section Configuration du noeud de calcul, vérifiez et configurez les champs suivants :

    Configuration du noeud de calcul

    Remarque : cette section est visible uniquement lorsque la case URI de source d'image OpenShift est cochée.

    Champ Description
    Forme de calcul

    Forme d'instance des noeuds de calcul. Pour plus d'informations, reportez-vous à Formes de calcul.

    Valeur par défaut : VM.Standard.E5. Modif.

    Nombre de noeuds du calcul

    Le nombre de nœuds de traitement dans le cluster.

    Valeur par défaut: 3

    OCPU de noeud de calcul

    Nombre d'OCPU disponibles pour chaque forme de noeud de calcul.

    Valeur par défaut: 6

    Mémoire de noeud de calcul

    Quantité de mémoire disponible, en gigaoctets (Go), pour chaque forme de noeud de plan de contrôle.

    Valeur par défaut: 16

    Volume d'initialisation du noeud de calcul

    Taille du volume d'initialisation (Go) de chaque noeud de plan de contrôle.

    Valeur par défaut: 100

    VPU de noeud de calcul

    Nombre d'unités de performance de volume (VPU) appliquées au volume, par 1 Go, de chaque noeud de calcul.

    Valeur par défaut: 30

    Répartir les instances de calcul entre les domaines de disponibilité

    Active la distribution automatique des instances de calcul entre les domaines de disponibilité dans une séquence circulaire, à partir du domaine de disponibilité sélectionné. Si cette option n'est pas sélectionnée, tous les noeuds sont créés dans le domaine de disponibilité de démarrage sélectionné.

    Valeur par défaut : True

    (Facultatif) Démarrage d'AD

    Domaine de disponibilité utilisé pour le positionnement initial des noeuds. Les noeuds supplémentaires sont automatiquement répartis entre les domaines de disponibilité dans une séquence circulaire, à partir du domaine de disponibilité sélectionné.

    Répartir les instances de calcul entre les FD

    Répartit les instances de calcul entre les domaines de pannes selon une séquence circulaire. Si cette option n'est pas sélectionnée, le service OCI Compute les distribue en fonction de la disponibilité des formes et d'autres critères.

    Valeur par défaut : True

  10. Dans la section Configuration réseau, vérifiez et configurez les champs suivants :

    Configuration réseau
    Champ Description
    Créer un DNS public

    Créez une zone DNS publique basée sur le domaine de base spécifié dans le champ DNS de zone.

    Remarque : si vous ne voulez pas créer de DNS public, créez une zone DNS privée, sauf si vous utilisez votre propre solution DNS. Pour résoudre les noms d'hôte de cluster sans DNS, ajoutez des entrées à /etc/hosts qui mettent en correspondance les noms d'hôte de cluster avec l'adresse IP de l'équilibreur de charge api_apps à l'aide de la sortie etc_hosts_entry .

    Valeur par défaut : True

    Créer un DNS privé

    Crée une zone DNS privée basée sur le domaine de base, spécifié dans le champ DNS de zone, pour prendre en charge la résolution de nom d'hôte dans le VCN.

    Remarque : la zone DNS privée contient les mêmes enregistrements que la zone DNS publique. Si vous utilisez un domaine Base non enregistré, nous vous recommandons de créer une zone DNS privée. Sinon, vous pouvez avoir besoin d'autres méthodes pour résoudre les noms d'hôte du cluster. Pour plus d'informations, reportez-vous à DNS privé.

    Activer l'équilibreur de charge d'API publique

    Crée un équilibreur de charge pour l'adresse d'API OpenShift dans le sous-réseau public avec une adresse IP publique pour l'accès externe.

    Remarque : si cette option n'est pas sélectionnée, l'équilibreur de charge est créé dans un sous-réseau privé avec un accès limité au sein du VCN ou des réseaux privés connectés. Dans les environnements sur site (par exemple, C3/PCA), les adresses IP publiques peuvent être internes (RFC 1918). L'accès public est utile pour la gestion à distance, l'automatisation et l'intégration continue et le déploiement continu. Contactez l'administrateur réseau, si nécessaire.

    Activer l'équilibreur de charge des applications publiques

    Crée un équilibreur de charge pour les applications OpenShift dans le sous-réseau public avec une adresse IP publique pour l'accès externe aux charges globales.

    Remarque : si cette option n'est pas sélectionnée, l'équilibreur de charge est créé dans un sous-réseau privé, ce qui limite l'accès au sein du VCN ou via un réseau VPN/privé. L'accès public est utile pour les applications Internet, les services clients ou les charges de travail colocatives. Dans les configurations sur site (par exemple, C3/PCA), les adresses IP publiques peuvent être internes (RFC 1918). Contactez votre équipe réseau pour vous assurer d'une exposition adéquate.

    Valeur par défaut : True

    DNS de zone

    Domaine de base pour les enregistrements DNS de votre cluster (par exemple, devcluster.openshift.com), utilisé pour créer des zones DNS publiques ou privées (ou les deux). Cette valeur doit correspondre à la valeur de domaine de base saisie dans la console cloud hybride Red Hat lors de la création de l'image ISO.

    Libellé DNS du réseau cloud virtuel

    A DNS label for the VCN, used with the VNIC's hostname and subnet's DNS label to form a Fully Qualified Domain Name (FQDN) for each VNIC within this subnet. (for example, bminstance1.subnet123.vcn1.oraclevcn.com).

    Valeur par défaut : openshiftvcn

    CIDR de réseau cloud virtuel

    Blocs CIDRIPv4 CIDR IPv4 pour le VCN de votre cluster OpenShift.

    Valeur par défaut : 10.0.0.0/16

    CIDR du sous-réseau public

    Blocs CIDRIPv4 CIDR IPv4 pour le sous-réseau public de votre cluster OpenShift.

    Valeur par défaut : 10.0.0.0/20

    CIDR de sous-réseau privé pour OCP

    Blocs CIDRIPv4 CIDR IPv4 pour le sous-réseau privé de votre cluster OpenShift.

    Valeur par défaut : 10.0.16.0/20

    CIDR de sous-réseau privé réservé pour Bare Metal

    Blocs IPv4 CIDR pour le sous-réseau privé des clusters Bare Metal OpenShift.

    Valeur par défaut : 10.0.32.0/20

    Bande passante maximum de l'équilibreur de charge

    Bande passante (Mbps) qui détermine la bande passante maximale (entrée et sortie) que l'équilibreur de charge peut atteindre. La valeur doit être comprise entre minimumBandwidthInMbps et 8000.

    Valeur par défaut: 500

    Bande passante minimale de l'équilibreur de charge

    Bande passante (Mbps) qui détermine la bande passante totale pré-provisionnée (entrée plus sortie). Les valeurs doivent être comprises entre 10 et maximumBandwidthInMbps.

    Valeur par défaut: 10

  11. (Facultatif) Dans la section Configurations avancées, vérifiez et configurez les champs suivants :

    Configurations avancées
    Champ Description
    Version du pilote OCI CCM et CSI

    Version du pilote OCI CCM et CSI à déployer. Pour plus d'informations, reportez-vous à la liste des versions de pilote et au fichier STORAGE.MD sur GitHub.

    Valeur par défaut : v1.32.0

    Utiliser les balises de rôle d'instance existantes

    Indique s'il faut réutiliser l'espace de noms de balise de rôle d'instance existant et les balises définies lors du balisage des ressources OCI. Par défaut, un nouvel ensemble de ressources de balisage de rôle d'instance est créé et détruit avec les autres ressources du cluster.

    Si nécessaire, créez des ressources de balise de rôle d'instance séparément qui peuvent être réutilisées avec la pile Terraform à partir de la page create-instance-role-tags dans le référentiel oci-openshift GitHub. Les ressources de balisage de rôle d'instance existantes ne sont pas détruites lorsque le cluster est supprimé.

    (Facultatif) Nom d'espace de noms de balise de rôle d'instance

    Nom de l'espace de noms de balise de rôle d'instance à réutiliser.

    Remarque : Ce champ est visible uniquement lorsque la case Utiliser les balises de rôle d'instance existantes est cochée.

    Valeur par défaut : openshift-{cluster_name}

    OCID de compartiment d'espace de noms de balise de rôle d'instance

    Compartiment contenant l'espace de noms de balise de rôle d'instance existant.

    Remarque : Ce champ est visible uniquement lorsque la case Utiliser les balises de rôle d'instance existantes est cochée.

    Valeur par défaut : compartiment en cours

  12. Sélectionnez Suivant.
  13. Sur la page Vérifier, vérifiez les variables et les informations de pile.
  14. Pour créer la pile, sélectionnez Créer. La console est redirigée vers la page de détails des piles Resource Manager pour la nouvelle pile.
  15. Sur la page de détails de la pile, sélectionnez Appliquer pour créer un travail d'application et provisionner l'infrastructure pour le cluster. Après avoir exécuté un travail d'application, obtenez les détails du travail pour vérifier son statut. Succès (SUCCEEDED) indique que le travail est terminé.
    Etapes suivantes Après avoir exécuté le travail d'application pour la pile, restez dans la section Resource Manager de la console OCI et suivez les étapes de la section Obtention des manifestes personnalisés pour l'installation.

Obtention des manifestes personnalisés pour l'installation

Après provisionnement de l'infrastructure dans le gestionnaire de ressources, à partir des "sorties" du travail de pile, obtenez le fichier dynamic_custom_manifest. Cette sortie contient tous les manifestes requis, concaténés et préformatés avec les valeurs de configuration pour CCM et CSI.

  1. Sur la page Piles de Resource Manager, sélectionnez le nom de la pile pour afficher ses détails. Si la vue de liste des travaux n'est pas affichée, sélectionnez Travaux sous la section Ressources pour afficher la liste des travaux.
  2. Sélectionnez le travail pour la création de la pile. La page Détails de travail est affichée dans la console.
  3. Sélectionnez Sorties sous la section Ressources pour afficher la liste des sorties du travail.
  4. Pour la sortie dynamic_custom_manifest, sélectionnez show pour afficher le contenu de la sortie.
  5. Sélectionnez copy pour copier le contenu de la sortie. Remarque : nous vous recommandons de ne pas sélectionner et copier manuellement le texte, car cela peut entraîner des problèmes d'indentation lorsque vous collez cette sortie à l'étape suivante.
  6. A l'aide d'un éditeur de texte ou de code, enregistrez la sortie copiée dans un nouveau fichier manifest.yaml. Téléchargez ce fichier à l'étape Manifeste personnalisé du processus d'installation décrit dans la Partie 3 : Installation d'un cluster (console Red Hat).

Partie 3 : Installation du cluster (console Red Hat)

Revenez à la console Red Hat Hybrid Cloud pour terminer la création du cluster à l'aide du programme d'installation assisté. Suivez les étapes de la section Completing the restants Assisted Installer steps (Red Hat documentation). Cela comprend les éléments suivants :

  • Affectation de rôles au plan de contrôle et aux instances de calcul exécutées dans OCI.
  • Vérification des paramètres de stockage et de mise en réseau du cluster.
  • Téléchargement du fichier manifest.yaml créé dans la partie 2 : infrastructure de provisionnement (console OCI) dans la section Manifeste personnalisé.
  • Démarrage de l'installation du cluster.

Accès à la console de cluster

Une fois l'installation terminée, sélectionnez Lancer la console OpenShift dans la console cloud hybride de Red Hat. La console de gestion du nouveau cluster s'ouvre. L'URL de la console Web de la console de cluster est affichée sur la page Progression de l'installation et peut être marquée comme signet dans un navigateur. Dans la console de gestion de cluster, téléchargez le fichier kubeconfig que vous utilisez pour accéder au cluster à l'aide de l'interface de ligne de commande OpenShift (oc) ou de l'interface de ligne de commande Kubernetes (kubectl).