Installation d'une grappe avec le programme d'installation assisté

Installez une grappe de plate-forme conteneur OpenShift sur OCI à l'aide du programme d'installation assisté de Red Hat.

Avant de commencer, vérifiez la section Préalables de cette documentation. Le flux de travail du programme d'installation assisté comprend trois étapes principales :
  1. Génération de l'image ISO de détection (console Red Hat).
  2. Provisionnement de l'infrastructure de grappe (console OCI).
  3. Fin de l'installation (console Red Hat).

Partie 1 : Générer un fichier ISO de détection (console Red Hat)

Les noeuds de calcul de la grappe nécessitent une image ISO de détection préconfigurée pour valider les configurations matérielles et réseau lors du déploiement de la grappe. Suivez les étapes décrites dans Utilisation du programme d'installation assisté pour générer une image ISO de détection compatible OCI (documentation sur Red Hat) pour générer et télécharger la norme ISO de détection à l'aide de la console Red Hat Hybrid Cloud. Revenez ensuite à ce guide pour Partie 2 : Infrastructure de provisionnement (console OCI)

Partie 2 : Infrastructure de provisionnement (console OCI)

Chargez la norme ISO de détection et configurez l'infrastructure à l'aide du plugiciel Red Hat OpenShift et du gestionnaire de ressources dans la console OCI.

Dans les tâches de cette section, vous travaillez dans la console OCI pour charger l'image ISO de détection et provisionner les ressources d'infrastructure de grappe, comme indiqué dans Fichiers de configuration. Voir Ressources définies par Terraform pour OpenShift pour obtenir la liste des ressources créées par le script Terraform utilisé pour cette méthode d'installation. Notez que vous spécifiez un compartiment existant et un seau de stockage d'objets pour la grappe. Voir Création d'un compartiment et Création d'un seau de stockage d'objets si vous avez besoin d'instructions pour créer ces ressources.

Chargement d'une image ISO Red Hat dans le stockage d'objets

  1. Dans la console OCI, créez un seau de stockage d'objets et chargez la norme ISO de détection dans le seau.
  2. Recherchez l'ISO de détection chargée et effectuez les étapes suivantes :
    1. Créez une demande préauthentifiée pour la commande ISO dans le stockage d'objets.
    2. Copiez l'URL générée à utiliser comme URI de source d'image OpenShift à l'étape suivante. Pour plus d'informations, voir Demandes préauthentifiées pour le stockage d'objets.

Création de l'infrastructure de plate-forme conteneur OpenShift

Suivez les étapes pour configurer l'infrastructure nécessaire pour la grappe OpenShift.
Note

  • Exécutez la pile create-resource-attribution-tags avant d'exécuter la pile create-cluster pour éviter l'échec de l'installation.
  • La pile create-resource-attribution-tags ne doit être exécutée qu'une seule fois. Si l'espace de noms de marqueur et les marqueurs définis existent déjà, vous pouvez ignorer cette étape pour les installations futures.
  1. Ouvrez le menu de navigation et sélectionnez Services de développement, puis Red Hat OpenShift.
  2. Dans la page Informations sur la pile, entrez un nom et une description facultatifs.
    • La dernière version de la pile Terraform est automatiquement chargée pour vous.
    • Les champs Créer dans le compartiment et Version Terraform sont préalimentés.
  3. (Facultatif) Dans la section Marqueurs, ajoutez des marqueurs pour organiser les ressources.
    1. Dans la liste déroulante Espace de noms de marqueur, sélectionnez un espace de noms de marqueur pertinent.
    2. Dans le champ Clé de marqueur, spécifiez une clé de marqueur.
    3. Dans le champ Valeur de marqueur, spécifiez une valeur pour le marqueur.
    4. Sélectionnez Ajouter un marqueur.
  4. Sélectionnez Suivant.
  5. Dans la page Configurer les variables, vérifiez et configurez les variables requises pour les ressources d'infrastructure créées par la pile lorsque vous exécutez la tâche Appliquer pour ce plan d'exécution.
  6. Dans la section Configuration de la grappe OpenShift, vérifiez et configurez les champs suivants :

    OpenShift Configuration de la grappe

    Champ Description
    OCID de la location

    OCID de la location courante.

    Valeur par défaut : Location courante

    Compartiment du compartiment

    OCID du compartiment dans lequel vous voulez créer la grappe OpenShift.

    Valeur par défaut : Compartiment courant

    Nom de la grappe

    Nom de la grappe OpenShift.

    Note : Utilisez la même valeur pour le nom de grappe que celle que vous avez spécifiée dans la console Red Hat Hybrid Cloud et assurez-vous qu'elle est compatible avec le DNS.

    Méthode d'installation

    Méthode d'installation à utiliser pour installer la grappe.

    Valeur par défaut : Programme d'installation assisté

    Créer une image et des instances OpenShift

    Active la création de l'image et des instances OpenShift.

    Valeur par défaut : Vrai

    URI de source d'image OpenShift

    URL de demande préauthentifiée créée dans la tâche précédente, Chargement d'une image ISO Red Hat dans le stockage d'objets.

    Note : Ce champ est visible uniquement lorsque la case Créer une image et des instances OpenShift est cochée.

  7. Dans la section Marqueurs d'attribution de ressource OpenShift, vérifiez et configurez le champ suivant :

    OpenShift Marqueurs d'attribution de ressource
    Champ Description
    Compartiment de l'espace de noms de marqueur pour les marqueurs d'attribution de ressource OpenShift

    Compartiment de l'espace de noms de marqueur pour les marqueurs d'attribution de ressource OpenShift.

    Note : Assurez-vous que le marqueur spécifié existe avant d'appliquer la pile Terraform. Le compartiment dans lequel l'espace de noms de marqueur pour le marquage des ressources est créé prend par défaut le compartiment courant. Pour l'attribution OpenShift sur les ressources OCI, l'espace de noms de marqueur et les marqueurs définis sont réglés à openshift-tags et openshift-resource. Si l'espace de noms openshift-tags existe déjà, assurez-vous qu'il est correctement défini et appliqué. Par exemple : defined-tags" - {"openshift-tags"- {"openshift-resource" - "openshift-resource-infra"} }

  8. Dans la section Configuration des noeuds du plan de contrôle, vérifiez et configurez les champs suivants :

    Configuration des noeuds du plan de contrôle

    Note : Cette section est visible uniquement lorsque la case OpenShift Image Source URI est cochée.

    Champ Description
    Forme du plan de contrôle

    Forme d'instance de calcul des noeuds de plan de contrôle. Pour plus d'informations, voir Formes de calcul.

    Valeur par défaut : VM.Standard.E5. Champ flexible

    Nombre de noeuds du plan de contrôle

    Nombre de noeuds de plan de contrôle dans la grappe.

    Valeur par défaut : 3

    OCPU de noeud de plan de contrôle

    Nombre d'OCPU disponibles pour chaque forme de noeud de plan de contrôle.

    Valeur par défaut : 4

    Mémoire du noeud du plan de contrôle

    Quantité de mémoire disponible, en gigaoctets (Go), pour chaque forme de noeud de plan de contrôle.

    Valeur par défaut : 24

    Volume de démarrage du noeud de plan de contrôle

    Taille du volume de démarrage (Go) de chaque noeud de plan de contrôle.

    Valeur par défaut : 1024

    Unité virtuelle de noeud de plan de contrôle

    Nombre d'unités de performance de volume (UPV) appliquées au volume, par 1 Go, de chaque noeud de plan de contrôle.

    Valeur par défaut : 100

    Répartir les instances de plan de contrôle entre les domaines de disponibilité

    Active la répartition automatique des instances de plan de contrôle entre les domaines de disponibilité dans une séquence tourniquetée, à partir du domaine de disponibilité sélectionné. Si cette option n'est pas sélectionnée, tous les noeuds sont créés dans le domaine de disponibilité de départ sélectionné.

    Valeur par défaut : Vrai

    (Facultatif) Démarrage du domaine de disponibilité

    Domaine de disponibilité utilisé pour le positionnement initial du noeud. Les noeuds supplémentaires sont automatiquement répartis entre les domaines de disponibilité dans une séquence tourniquet, à partir du domaine de disponibilité sélectionné.

    Répartir les instances de plan de contrôle entre les fichiers de configuration

    Répartit les instances de plan de contrôle entre les domaines d'erreur en mode tourniquet. Si cette option n'est pas sélectionnée, le service de calcul d'OCI les répartit en fonction de la disponibilité de la forme et d'autres critères.

    Valeur par défaut : Vrai

  9. Dans la section Configuration des noeuds de calcul, vérifiez et configurez les champs suivants :

    Configuration des noeuds de calcul

    Note : Cette section est visible uniquement lorsque la case OpenShift Image Source URI est cochée.

    Champ Description
    Forme de calcul

    Forme d'instance des noeuds de calcul. Pour plus d'informations, voir Formes de calcul.

    Valeur par défaut : VM.Standard.E5. Champ flexible

    Nombre de noeuds de calcul

    Nombre de noeuds de calcul dans la grappe.

    Valeur par défaut : 3

    OCPU de noeud de calcul

    Nombre d'OCPU disponibles pour chaque forme de noeud de calcul.

    Valeur par défaut : 6

    Mémoire du noeud de calcul

    Quantité de mémoire disponible, en gigaoctets (Go), pour chaque forme de noeud de plan de contrôle.

    Valeur par défaut : 16

    Volume de démarrage du noeud de calcul

    Taille du volume de démarrage (Go) de chaque noeud de plan de contrôle.

    Valeur par défaut : 100

    UPV de noeud de calcul

    Nombre d'unités de performance de volume (UPV) appliquées au volume, par 1 Go, de chaque noeud de calcul.

    Valeur par défaut : 30

    Répartir les instances de calcul entre les domaines de disponibilité

    Permet la répartition automatique des instances de calcul entre les domaines de disponibilité dans une séquence cyclique, à partir du domaine de disponibilité sélectionné. Si cette option n'est pas sélectionnée, tous les noeuds sont créés dans le domaine de disponibilité de départ sélectionné.

    Valeur par défaut : Vrai

    (Facultatif) Démarrage du domaine de disponibilité

    Domaine de disponibilité utilisé pour le positionnement initial du noeud. Les noeuds supplémentaires sont automatiquement répartis entre les domaines de disponibilité dans une séquence tourniquet, à partir du domaine de disponibilité sélectionné.

    Répartir les instances de calcul entre les fichiers FD

    Répartit les instances de calcul sur les domaines d'erreur en cascade. Si cette option n'est pas sélectionnée, le service de calcul d'OCI les répartit en fonction de la disponibilité de la forme et d'autres critères.

    Valeur par défaut : Vrai

  10. Dans la section Configuration du réseau, vérifiez et configurez les champs suivants :

    Configuration de réseau
    Champ Description
    Créer un DNS public

    Créez une zone DNS publique en fonction du domaine de base spécifié dans le champ DNS de zone.

    Note : Si vous ne voulez pas créer un DNS public, créez une zone DNS privée à moins d'utiliser votre propre solution DNS. Pour résoudre les noms d'hôte de grappe sans DNS, ajoutez des entrées à /etc/hosts qui mappent les noms d'hôte de grappe à l'adresse IP de l'équilibreur de charge api_apps à l'aide de la sortie etc_hosts_entry .

    Valeur par défaut : Vrai

    Créer un DNS privé

    Crée une zone DNS privée basée sur le domaine de base, spécifié dans le champ DNS de zone, pour prendre en charge la résolution de nom d'hôte dans le VCN.

    Note : La zone DNS privée contient les mêmes enregistrements que la zone DNS publique. Si vous utilisez un domaine de base non enregistré, nous vous recommandons de créer une zone DNS privée. Sinon, vous devrez peut-être utiliser d'autres méthodes pour résoudre les noms d'hôte de grappe. Pour plus d'informations, voir DNS privé.

    Activer l'équilibreur de charge d'API public

    Crée un équilibreur de charge pour le point d'extrémité de l'API OpenShift dans le sous-réseau public avec une adresse IP publique pour l'accès externe.

    Note : Si cette option n'est pas sélectionnée, l'équilibreur de charge est créé dans un sous-réseau privé avec un accès limité au sein du VCN ou des réseaux privés connectés. Dans les environnements sur place (par exemple, C3/PCA), les adresses IP publiques peuvent être internes (RFC 1918). L'accès public est utile pour la gestion à distance, l'automatisation et l'intégration et le développement en continu. Communiquez avec l'administrateur de réseau si nécessaire.

    Activer l'équilibreur de charge des applications publiques

    Crée un équilibreur de charge pour les applications OpenShift dans le sous-réseau public avec une adresse IP publique pour l'accès externe aux charges de travail.

    Note : Si cette option n'est pas sélectionnée, l'équilibreur de charge est créé dans un sous-réseau privé, ce qui limite l'accès au sein du VCN ou au moyen d'un réseau privé virtuel/privé. L'accès public est utile pour les applications accessibles sur Internet, les services à la clientèle ou les charges de travail multilocataires. Dans les configurations sur place (par exemple, C3/PCA), les adresses IP publiques peuvent être internes (RFC 1918). Contactez votre équipe réseau pour assurer une bonne exposition.

    Valeur par défaut : Vrai

    DNS de zone

    Domaine de base pour les enregistrements DNS de votre grappe (par exemple, devcluster.openshift.com), utilisé pour créer des zones DNS publiques ou privées (ou les deux). Cette valeur doit correspondre à la valeur de domaine de base entrée dans la console Red Hat Hybrid Cloud lors de la création de l'image ISO.

    Étiquette DNS du VCN

    Étiquette DNS du VCN, utilisée avec le nom d'hôte de la carte VNIC et l'étiquette DNS du sous-réseau pour former un nom de domaine complet pour chaque carte VNIC du sous-réseau (par exemple, bminstance1.subnet123.vcn1.oraclevcn.com).

    Valeur par défaut : openshiftvcn

    Bloc CIDR du réseau en nuage virtuel

    Blocs IPv4 CIDR pour le VCN de votre grappe OpenShift.

    Valeur par défaut : 10.0.0.0/16

    CIDR de sous-réseau public

    Blocs IPv4 CIDR pour le sous-réseau public de votre grappe OpenShift.

    Valeur par défaut : 10.0.0.0/20

    Bloc CIDR de sous-réseau privé pour OCP

    Blocs IPv4 CIDR pour le sous-réseau privé de votre grappe OpenShift.

    Valeur par défaut : 10.0.16.0/20

    Bloc CIDR de sous-réseau privé réservé pour les instances sans système d'exploitation

    Blocs IPv4 CIDR pour le sous-réseau privé des grappes sans système d'exploitation OpenShift.

    Valeur par défaut : 10.0.32.0/20

    Bande passante maximale de l'équilibreur de charge

    Bande passante (Mbps) qui détermine la bande passante maximale (entrante et sortante) que l'équilibreur de charge peut atteindre. Les valeurs doivent être comprises entre minimumBandwidthInMbps et 8000.

    Valeur par défaut : 500

    Plage minimale de l'équilibreur de charge avec

    Bande passante (Mbps) qui détermine la bande passante préprovisionnée totale (entrante et sortante). Les valeurs doivent être comprises entre 10 et maximumBandwidthInMbps

    Valeur par défaut : 10

  11. (Facultatif) Dans la section Configurations avancées, vérifiez et configurez les champs suivants :

    Configurations avancées
    Champ Description
    Version du pilote CCM et CSI OCI

    Version du pilote CCM et CSI OCI à déployer. Pour plus d'informations, consultez la liste des versions de pilote et le fichier STORAGE.MD sur GitHub.

    Valeur par défaut : v1.32.0

    Utiliser des marqueurs de rôle d'instance existants

    Indique s'il faut réutiliser l'espace de noms de marqueur de rôle d'instance existant et les marqueurs définis lors du marquage des ressources OCI. Par défaut, un nouveau jeu de ressources de marquage de rôle d'instance est créé et détruit avec le reste des ressources de grappe.

    Si nécessaire, créez des ressources de marqueur de rôle d'instance séparément qui peuvent être réutilisées avec la pile Terraform à partir de la page create-instance-role-tags dans le référentiel oci-openshift GitHub. Les ressources de marquage de rôle d'instance existantes ne sont pas détruites lorsque la grappe est supprimée.

    (Facultatif) Nom de l'espace de noms de marqueur du rôle d'instance

    Nom de l'espace de noms de marqueur du rôle d'instance à réutiliser.

    Note : Ce champ est visible uniquement lorsque la case Utiliser des marqueurs de rôle d'instance existants est cochée.

    Valeur par défaut : openshift-{cluster_name}

    OCID du compartiment de l'espace de noms du marqueur de rôle d'instance

    Compartiment contenant l'espace de noms de marqueur du rôle d'instance existant.

    Note : Ce champ est visible uniquement lorsque la case Utiliser des marqueurs de rôle d'instance existants est cochée.

    Valeur par défaut : Compartiment courant

  12. Sélectionnez Suivant.
  13. Dans la page Vérifier, vérifiez les informations et les variables de la pile.
  14. Sélectionnez Créer pour créer la pile. La console redirige vers la page des détails des piles du gestionnaire de ressources pour la nouvelle pile.
  15. Dans la page des détails de la pile, sélectionnez Appliquer pour créer une tâche d'application et provisionner l'infrastructure pour la grappe. Après avoir exécuté une tâche d'application, obtenez les détails de la tâche pour vérifier son statut. Réussite (SUCCEEDED) indique que la tâche est terminée.
    Étape suivante Après avoir exécuté la tâche d'application pour la pile, restez dans la section Gestionnaire de ressources de la console OCI et effectuez les étapes sous Obtention des manifestes personnalisés pour installation.

Obtention des manifestes personnalisés pour l'installation

Après le provisionnement de l'infrastructure dans le gestionnaire de ressources, à partir des "sorties" de la tâche de pile, obtenez le fichier dynamic_custom_manifest. Cette sortie contient tous les manifestes requis, concaténés et préformatés avec les valeurs de configuration pour CCM et CSI.

  1. Dans la page Piles du gestionnaire de ressources, sélectionnez le nom de la pile pour voir ses détails. Si la vue de liste des tâches n'est pas affichée, sélectionnez Tâches dans la section Ressources pour voir la liste des tâches.
  2. Sélectionnez la tâche pour la création de la pile. La page Détails de la tâche est affichée dans la console.
  3. Sélectionnez Sorties dans la section Ressources pour voir la liste des sorties pour la tâche.
  4. Pour la sortie dynamic_custom_manifest, sélectionnez Afficher pour voir le contenu de la sortie.
  5. Sélectionnez Copier pour copier le contenu de la sortie. Note : Nous vous recommandons de ne pas sélectionner et copier manuellement le texte, car cela peut causer des problèmes d'indentation lorsque vous collez cette sortie à l'étape suivante.
  6. À l'aide d'un éditeur de texte ou de code, enregistrez la sortie copiée dans un nouveau fichier manifest.yaml. Chargez ce fichier à l'étape Manifeste personnalisé du processus d'installation décrit dans la Partie 3 : Installation d'une grappe (console Red Hat).

Partie 3 : Installer le cluster (console Red Hat)

Revenez à la console Red Hat Hybrid Cloud pour terminer la création de la grappe à l'aide du programme d'installation assisté. Suivez les étapes décrites dans Exécution des étapes restantes du programme d'installation assisté (documentation sur Red Hat). Il s'agit notamment des éléments suivants :

  • Affectation de rôles au plan de contrôle et aux instances de calcul s'exécutant dans OCI.
  • Vérification des paramètres de stockage et de réseau en grappe.
  • Chargement du fichier manifest.yaml que vous avez créé dans la partie 2 : Infrastructure de provisionnement (console OCI) dans la section Manifeste personnalisé.
  • Démarrage de l'installation de la grappe.

Accès à la console de grappes

Une fois l'installation terminée, sélectionnez Lancer la console OpenShift dans la console Red Hat Hybrid Cloud. La console de gestion de la nouvelle grappe s'ouvre. L'URL de la console Web pour la console de la grappe s'affiche dans la page Progression de l'installation et peut faire l'objet d'un signet dans un navigateur. Dans la console de gestion des grappes, téléchargez le fichier kubeconfig que vous utilisez pour accéder à la grappe à l'aide de l'interface de ligne de commande OpenShift (oc) ou de l'interface de ligne de commande Kubernetes (kubectl).