Créer un pool de noeuds de processus actif OKE
Découvrez comment créer des pools de noeuds de processus actif OKE sur Private Cloud Appliance pour un cluster de charges globales.
Les noeuds sont des instances de calcul d'appliance de cloud privé. Lorsque vous créez un pool de noeuds de processus actif, vous indiquez le nombre de noeuds à créer et d'autres paramètres qui définissent les instances.
Vous ne pouvez pas personnaliser les scripts OKE cloud-init.
Pour configurer les paramètres de proxy, utilisez l'interface de ligne de commande ou l'API OCI pour définir le proxy dans les métadonnées de noeud. Si le cluster utilise la mise en réseau de pod natif VCN, ajoutez 169.254.169.254 au paramètre noproxy.
La prise en charge des CA personnalisées n'est disponible qu'à l'aide de l'interface de ligne de commande (oci ce node-pool create et oci ce node-pool update).
-
Dans le menu de navigation Interface utilisateur Web de calcul, sélectionnez Conteneurs, puis Clusters Kubernetes (OKE).
Si le cluster auquel vous voulez attacher un pool de noeuds n'est pas répertorié, sélectionnez un autre compartiment dans le menu de compartiment situé en haut de la page.
-
Sélectionnez le nom du cluster auquel vous voulez ajouter un pool de noeuds.
-
Sur la page de détails du cluster, faites défiler la page jusqu'à la section Ressources et sélectionnez Pools de noeuds.
-
Dans la liste Pools de noeuds, cliquez sur le bouton Ajouter un pool de noeuds.
-
Dans la boîte de dialogue Ajouter un pool de noeuds, fournissez les informations suivantes :
-
Nom : nom du nouveau pool de noeuds. Evitez de saisir des informations confidentielles.
-
Compartiment : compartiment dans lequel créer le pool de noeuds.
-
Options de pool de noeuds : dans le champ Nombre de noeuds, entrez le nombre de noeuds souhaités dans ce pool de noeuds. Le numéro de port par défaut est 0. Le nombre maximal est de 128 par cluster, qui peut être réparti entre plusieurs pools de noeuds.
-
Groupe de sécurité réseau : si vous cochez la case pour activer les groupes de sécurité réseau, sélectionnez Ajouter un groupe de sécurité réseau et sélectionnez un groupe de sécurité réseau dans la liste déroulante. Vous devrez peut-être changer de compartiment pour trouver le groupe de sécurité réseau souhaité. La carte d'interface réseau virtuelle principale du sous-réseau de processus actif sera attachée à ce groupe de sécurité réseau.
-
Configuration de placement
-
Sous-réseau de noeud de processus actif : sélectionnez un sous-réseau doté d'une configuration telle que le sous-réseau de processus actif décrit dans Création d'un sous-réseau de processus actif (superposition de canal) ou Création d'un sous-réseau de processus actif (pod natif VCN). Pour un cluster public, créez la version privée NAT du sous-réseau "worker". Pour un cluster privé, créez la version privée VCN uniquement du sous-réseau "worker". Sélectionnez un seul sous-réseau. Les règles du sous-réseau doivent être définies pour communiquer avec l'adresse du plan de contrôle. Le sous-réseau doit utiliser une table de routage privée et doit disposer d'une liste de sécurité telle que la liste de sécurité worker-seclist décrite dans Création d'un sous-réseau de processus actifs (superposition de canal) ou Création d'un sous-réseau de processus actifs (pod natif VCN).
-
Domaine de pannes : sélectionnez un domaine de pannes ou sélectionnez Sélectionner automatiquement le meilleur domaine de pannes, qui est l'option par défaut. Un appareil Roving Edge ne comporte que 1 domaine de pannes.
-
-
Image source : sélectionnez une image.
-
Sélectionnez le type de source d'image de plate-forme.
-
Sélectionnez une image dans la liste.
La liste d'images contient les colonnes Système d'exploitation, Version de système d'exploitation et Version de Kubernetes. Vous pouvez utiliser la flèche du menu déroulant à droite de la version de système d'exploitation ou de la version de Kubernetes pour sélectionner une autre version. Si plusieurs images ont la même version de Kubernetes, sélectionnez l'image la plus récente, en fonction de la date dans le nom de l'image.
Si l'image que vous souhaitez utiliser n'est pas répertoriée, utilisez la procédure CLI et indiquez l'OCID de l'image. Pour obtenir l'OCID de l'image souhaitée, utilisez la commande
ce node-pool getpour un pool de noeuds dans lequel vous avez déjà utilisé cette image.Remarque
L'image que vous indiquez ne doit pas avoir de version de Kubernetes plus récente que la version de Kubernetes indiquée lors de la création du cluster. La version de Kubernetes du cluster se trouve dans une colonne de la table de liste des clusters.
-
-
Forme : sélectionnez une forme pour les noeuds de processus actif. Pour obtenir une description des formes disponibles, reportez-vous à Formes de calcul. Si vous utilisez l'extension de cluster GPU Operator, vous pouvez utiliser les formes GPU prises en charge.
Si vous sélectionnez une forme qui n'est pas flexible, la quantité de mémoire et le nombre d'OCPU sont affichés. Ces numéros correspondent aux numéros indiqués pour cette forme dans le tableau des formes de calcul.
Si vous sélectionnez une forme flexible, vous devez indiquer le nombre d'OCPU souhaitées. Vous pouvez éventuellement indiquer la quantité totale de mémoire souhaitée. La valeur par défaut pour les gigaoctets de mémoire est 16 fois la valeur indiquée pour les OCPU. Cliquez à l'intérieur de chaque champ de valeur pour voir les valeurs minimum et maximum autorisées.
Remarque
Allouez au moins 2 OCPU et 32 Go de mémoire pour 10 pods en cours d'exécution. Vous devrez peut-être allouer davantage de ressources, en fonction des charges de travail planifiées. Reportez-vous à Resource Management pour les pods et les conteneurs.
-
Volume d'initialisation : (facultatif) cochez la case pour spécifier une taille de volume d'initialisation personnalisée.
Taille de volume d'initialisation (Go) : la taille de volume d'initialisation par défaut de l'image sélectionnée est affichée. Pour spécifier une taille supérieure, entrez une valeur comprise entre 50 et 16384 en gigaoctets (50 Go à 16 To) ou utilisez les flèches d'incrémentation et de décrémentation.
Si vous indiquez une taille personnalisée de volume d'initialisation, vous devez étendre la partition afin de tirer parti de cette plus grande taille. Les images de plate-forme Oracle Linux incluent le package
oci-utils. Utilisez la commandeoci-growfsde ce package pour étendre la partition racine, puis développez le système de fichiers. Reportez-vous à oci-growfs. -
Communication de pod (clusters de mise en réseau de pod natif VCN uniquement)
Sous-réseau de communication de pod : sélectionnez un sous-réseau qui présente une configuration telle que le sous-réseau "pod" décrit dans Création d'un sous-réseau de pod (pod natif VCN).
Nombre de pods par noeud : nombre maximal de pods à exécuter sur un seul noeud de processus actif dans un pool de noeuds. La valeur par défaut est 31. Vous pouvez entrer un nombre compris entre 1 et 110. Le nombre de VNIC autorisées par la forme que vous indiquez (reportez-vous à la section Forme ci-dessus) limite ce nombre maximal de pods. Reportez-vous à Formes de noeud et nombre de pods. Pour conserver l'espace d'adressage du sous-réseau de pod, réduisez le nombre maximal de pods à exécuter sur un seul noeud de processus actif. Cela réduit le nombre d'adresses IP pré-allouées dans le sous-réseau de pod.
Si vous cochez la case Utiliser les règles de sécurité dans le groupe de sécurité réseau, cliquez sur le bouton Ajouter un groupe de sécurité réseau et sélectionnez un groupe de sécurité réseau dans la liste déroulante. Vous devrez peut-être changer de compartiment pour trouver le groupe de sécurité réseau souhaité. Les cartes d'interface réseau virtuelles secondaires du sous-réseau de pod seront attachées à ce groupe de sécurité réseau.
-
Cordon et purge : (facultatif) saisissez le nombre de minutes de la durée de grâce d'expulsion ou utilisez les flèches pour réduire ou augmenter le nombre de minutes de la durée de grâce d'expulsion. La valeur maximale et la valeur par défaut sont de 60 minutes.
-
Private Cloud Appliance version 3.0.2-b1261765. Indiquez un nombre entier compris entre 0 et 60. Si vous entrez 0, la valeur sera convertie en 0,333 car 20 secondes correspond à la durée minimale de grâce d'expulsion. Si vous sélectionnez ensuite la flèche vers le haut, la valeur passe à 1.
-
Private Cloud Appliance version 3.0.2-b1185392. Indiquez un nombre entier compris entre 1 et 60.
Vous ne pouvez pas effacer "Forcer la terminaison après la période de grâce". Les noeuds sont supprimés après l'expulsion de leurs pods ou à la fin de la durée de grâce d'expulsion, même si tous les pods ne sont pas expulsés.
Pour une description du cordon et de la durée de grâce de purge et d'expulsion, sélectionnez l'onglet CLI sur cette page et reportez-vous à la section Node and node pool delete settings.
-
-
Clé SSH : clé SSH publique pour les noeuds de processus actif. Chargez le fichier de clés publiques ou copiez-collez le contenu du fichier.
-
Libellés Kubernetes : sélectionnez le bouton Ajouter un libellé Kubernetes et entrez un nom et une valeur de clé. Vous pouvez utiliser ces libellés pour cibler les pods en vue de leur programmation sur des noeuds ou des groupes de noeuds spécifiques. Pour obtenir une description et un exemple, sélectionnez l'onglet CLI sur cette page et reportez-vous à Libellés.
-
Balises de pool de noeuds : balises définies ou à format libre pour la ressource de pool de noeuds.
Remarque
N'indiquez pas de valeurs pour la balise définie OraclePCA-OKE.cluster_id ou pour la balise à format libre ClusterResourceIdentifier. Ces valeurs de balise sont générées par le système et s'appliquent uniquement aux noeuds (instances), et non à la ressource de pool de noeuds.
-
Balises de noeud : balises définies ou à format libre appliquées à chaque noeud du pool de noeuds.
Important
N'indiquez pas de valeurs pour la balise définie OraclePCA-OKE.cluster_id ou pour la balise à format libre ClusterResourceIdentifier. Ces valeurs de balise sont générées par le système.
-
-
Cliquez sur le bouton Ajouter un pool de noeuds dans la boîte de dialogue.
La page de détails du pool de noeuds s'affiche. Faites défiler la page jusqu'à la section Ressources et sélectionnez Demandes de travail pour voir la progression de la création du pool de noeuds et voir les noeuds ajoutés à la liste Noeuds. Le statut de la demande de travail est Accepté jusqu'à ce que le cluster soit à l'état Actif ou Echec.
Pour identifier ces noeuds dans une liste d'instances, notez que les noms de ces noeuds sont au format
oke-ID, oùIDest les 32 premiers caractères aprèspca_namedans l'OCID de pool de noeuds. Recherchez les instances de la liste dont le nom contient la chaîneIDà partir de cet OCID de pool de noeuds.
Prochaine étape :
-
Configurez tous les registres ou référentiels dont les noeuds de processus actif ont besoin. Assurez-vous que vous avez accès à un registre de conteneurs public ou intranet autogéré à utiliser avec le service OKE et les images de votre application.
-
Créez un service pour exposer les applications en conteneur en dehors de Private Cloud Appliance. Reportez-vous à Exposition d'applications en conteneur.
-
Créez un stockage persistant pour les applications à utiliser. Reportez-vous à Ajout de stockage pour les applications en conteneur.
-
Utilisez la commande oci ce node-pool create et les paramètres requis pour créer un pool de noeuds.
oci ce node-pool create --cluster-id cluster_OCID --compartment-id compartment_OCID --name pool_name --node-shape node_shape_name [OPTIONS]-
Obtenez les informations dont vous avez besoin pour exécuter la commande.
-
OCID du compartiment dans lequel créer le pool de noeuds :
oci iam compartment list -
OCID du cluster pour ce pool de noeuds :
oci ce cluster list
-
Nom du pool des noeuds. Evitez de saisir des informations confidentielles.
-
Configuration de placement pour les noeuds, y compris l'OCID de sous-réseau de processus actifs et le domaine de pannes. Pour obtenir une description supplémentaire, sélectionnez l'onglet Console sur cette page et reportez-vous à Configuration de placement. Utilisez la commande suivante pour afficher le contenu et le format de cette option :
$ oci ce node-pool create --generate-param-json-input placement-configsUtilisez la commande suivante pour répertorier les domaines de pannes :
oci iam fault-domain list. N'indiquez pas plusieurs domaines de pannes ou plusieurs sous-réseaux dans la configuration de placement. Pour permettre au système de sélectionner les meilleurs domaines de pannes, ne spécifiez aucun domaine de pannes. Un appareil Roving Edge ne comporte que 1 domaine de pannes. -
(Clusters de mise en réseau de pod natif VCN uniquement) OCID du sous-réseau de pod. Voir Création d'un sous-réseau de pod (pod natif VCN). Pour obtenir une description supplémentaire, sélectionnez l'onglet Console sur cette page et reportez-vous à Communication de pod. Utilisez l'option
--pod-subnet-ids. Bien que la valeur de l'option--pod-subnet-idssoit un tableau, vous ne pouvez indiquer qu'un seul OCID de sous-réseau de pod.Nombre maximal de pods que vous souhaitez exécuter sur un seul noeud de processus actif dans un pool de noeuds. Utilisez l'option
--max-pods-per-node. La valeur par défaut est 31. Vous pouvez entrer un nombre compris entre 1 et 110. Le nombre de cartes d'interface réseau virtuelles autorisées par la forme que vous indiquez (reportez-vous à Nom de la forme) limite ce nombre maximal de pods. Reportez-vous à Formes de noeud et nombre de pods. Pour conserver l'espace d'adressage du sous-réseau de pod, réduisez le nombre maximal de pods à exécuter sur un seul noeud de processus actif. Cela réduit le nombre d'adresses IP pré-allouées dans le sous-réseau de pod.(Facultatif) OCID du groupe de sécurité réseau à utiliser pour les pods de ce pool de noeuds. Utilisez l'option
--pod-nsg-ids. Vous pouvez indiquer jusqu'à cinq groupes de sécurité réseau. -
OCID de l'image à utiliser pour les noeuds de ce pool de noeud.
Utilisez la commande suivante pour obtenir l'OCID de l'image à utiliser :
$ oci compute image list --compartment-id compartment_OCIDSi l'image à utiliser n'est pas répertoriée, vous pouvez obtenir l'OCID de l'image à partir de la sortie de la commande
ce node-pool getpour un pool de noeuds où vous avez déjà utilisé cette image.Remarque
L'image que vous indiquez doit avoir
-OKE-dansdisplay-nameet ne doit pas avoir de version de Kubernetes plus récente que la version de Kubernetes que vous avez indiquée lors de la création du cluster.La version de Kubernetes pour le cluster est affichée dans la sortie
cluster list. La version de Kubernetes pour l'image est affichée dans la propriétédisplay-namede la sortieimage list. La version Kubernetes de l'image suivante est 1.29.9."display-name": "uln-pca-Oracle-Linux8-OKE-1.29.9-20250325.oci"
Si plusieurs images ont la même version de Kubernetes, sélectionnez l'image la plus récente, en fonction de la date dans le nom de l'image.
N'indiquez pas l'option
--kubernetes-versiondans la commandenode-pool create.Vous pouvez spécifier une taille de volume d'initialisation personnalisée en gigaoctets. La taille de volume d'initialisation par défaut est de 50 Go. Pour spécifier une taille de volume d'initialisation personnalisée, utilisez l'option
--node-source-detailspour spécifier à la fois la taille du volume d'initialisation et l'image. Vous ne pouvez pas indiquer--node-image-idet--node-source-details. Utilisez la commande suivante pour afficher le contenu et le format de l'option de détails de la source de noeud.$ oci ce node-pool create --generate-param-json-input node-source-detailsSi vous indiquez une taille personnalisée de volume d'initialisation, vous devez étendre la partition afin de tirer parti de cette plus grande taille. Les images de plate-forme Oracle Linux incluent le package
oci-utils. Utilisez la commandeoci-growfsde ce package pour étendre la partition racine, puis développez le système de fichiers. Reportez-vous à oci-growfs. -
Nom de la forme des noeuds de processus actifs dans ce pool de noeuds. Si vous utilisez l'extension de cluster GPU Operator, vous pouvez utiliser les formes GPU prises en charge. Pour tous les autres systèmes Private Cloud Appliance, la forme par défaut est VM.PCAStandard1.1 et vous pouvez indiquer une autre forme. Pour obtenir une description des formes disponibles, reportez-vous à Formes de calcul.
Si vous spécifiez une forme flexible, vous devez également spécifier la configuration de la forme, comme indiqué dans l'exemple suivant. Vous devez fournir une valeur pour
ocpus. La propriétémemoryInGBsest facultative ; la valeur par défaut en gigaoctets est 16 fois supérieure au nombre deocpus.--node-shape-config '{"ocpus": 32, "memoryInGBs": 512}'Remarque
Allouez au moins 2 OCPU et 32 Go de mémoire pour 10 pods en cours d'exécution. Vous devrez peut-être allouer davantage de ressources, en fonction des charges de travail planifiées. Reportez-vous à Resource Management pour les pods et les conteneurs.
Si vous indiquez une forme qui n'est pas flexible, n'indiquez pas
--node-shape-config. Le nombre d'OCPU et la quantité de mémoire sont définis sur les valeurs affichées pour cette forme dans "Formes standard" dans Formes de calcul. -
(Facultatif) OCID du groupe de sécurité réseau à utiliser pour les noeuds de ce pool. Utilisez l'option
. Ne spécifiez pas plus d'un groupe de sécurité réseau.--nsg-ids -
(Facultatif) Libellés. La définition de libellés sur les noeuds vous permet de cibler les pods pour la programmation sur des noeuds ou des groupes de noeuds spécifiques. Utilisez cette fonctionnalité pour vous assurer que des pods spécifiques s'exécutent uniquement sur des noeuds dotés de certaines propriétés d'isolation, de sécurité ou réglementaires.
Utilisez l'option
--initial-node-labelspour ajouter des libellés aux noeuds. Les libellés sont une liste de paires clé/valeur à ajouter aux noeuds après leur adhésion au cluster Kubernetes. Pour plus d'informations sur les limites de métadonnées, reportez-vous à Restrictions relatives aux clés de métadonnées.Voici un exemple de libellé à appliquer aux noeuds du pool de noeuds :
--initial-node-labels '[{"key":"disktype","value":"ssd"}]Pour sélectionner facilement des noeuds en fonction de leurs libellés, utilisez
nodeSelectordans la configuration de pod. Kubernetes programme uniquement le pod sur les noeuds qui ont chacun des libellés indiqués dans la sectionnodeSelector.L'exemple d'extrait suivant d'une configuration de pod indique que les pods qui utilisent cette configuration doivent être exécutés sur des noeuds ayant l'étiquette de type de disque
ssd:nodeSelector: disktype: ssd
-
(Facultatif) Métadonnées de noeud. Utilisez l'option
pour attacher des données utilisateur personnalisées aux noeuds. Reportez-vous à l'élément de paramètres proxy suivant pour un exemple spécifique.--node-metadataPour plus d'informations sur les limites de métadonnées, reportez-vous à Restrictions relatives aux clés de métadonnées. La taille maximale des métadonnées de noeud est de 32 000 octets.
-
(Facultatif) Paramètres de proxy. Si votre réseau requiert des paramètres de proxy pour permettre aux noeuds de processus actifs d'atteindre des registres ou des référentiels extérieurs, par exemple, créez un argument pour l'option
--node-metadata.Dans l'argument d'option
--node-metadata, fournissez les valeurs pourcrio-proxyetcrio-noproxycomme indiqué dans l'exemple d'argument de fichier suivant :{ "crio-proxy": "http://your_proxy.your_domain_name:your_port", "crio-noproxy": "localhost,127.0.0.1,your_domain_name,ocir.io,Kubernetes_cidr,pods_cidr" }Si le cluster utilise la mise en réseau de pod natif VCN, ajoutez 169.254.169.254 au paramètre noproxy, comme dans l'exemple suivant :
"crio-noproxy": "localhost,127.0.0.1,your_domain_name,ocir.io,Kubernetes_cidr,pods_cidr,169.254.169.254" -
(Facultatif) Paramètres de suppression des noeuds et des pools de noeuds. Vous pouvez indiquer comment gérer la suppression d'un noeud lorsque vous supprimez un pool de noeuds, supprimez un noeud spécifié, décrémentez la taille du pool de noeuds ou modifiez la configuration de placement des noeuds du pool de noeuds. Ces paramètres peuvent également être définis ou modifiés lorsque vous mettez à jour le pool de noeuds, supprimez un noeud spécifié ou supprimez le pool de noeuds.
Pour spécifier les paramètres de suppression de pool de noeuds, créez un argument pour l'option
--node-eviction-node-pool-settings. Vous pouvez indiquer la durée de grâce d'expulsion (evictionGraceDuration) pour les noeuds. Les noeuds sont toujours supprimés une fois leurs pods expulsés ou à la fin de la durée de grâce d'expulsion.-
Durée de grâce d'expulsion. Cette valeur spécifie la durée d'accès aux noeuds de processus actif de cordon et de purge.
Un noeud qui est câblé ne peut pas avoir de nouveaux pods placés dessus. Les pods existants sur ce noeud ne sont pas affectés.
Lorsqu'un noeud est purgé, les conteneurs de chaque pod se terminent progressivement et effectuent le nettoyage nécessaire.
La valeur de la durée de grâce d'expulsion est exprimée au format ISO 8601 : par exemple, PT45S, PT20M ou PT39M21S. La valeur par défaut et la valeur maximale sont de 60 minutes (PT60M). La valeur minimale est de 20 secondes (PT20S). OKE tente toujours de purger les noeuds pendant au moins 20 secondes.
-
Forcer la suppression. Les noeuds sont toujours supprimés une fois leurs pods expulsés ou à la fin de la durée de grâce d'expulsion. Après la durée de grâce d'expulsion par défaut ou spécifiée, le noeud est supprimé, même si un ou plusieurs conteneurs de pod ne sont pas complètement vidés.
L'exemple suivant illustre un argument pour l'option
--node-eviction-node-pool-settings. Si vous incluez la propriétéisForceDeleteAfterGraceDuration, sa valeur doit êtretrue. Les noeuds sont toujours supprimés une fois leurs pods expulsés ou à la fin de la durée de grâce d'expulsion.--node-eviction-node-pool-settings '{"evictionGraceDuration": "PT30M", "isForceDeleteAfterGraceDuration": true}'Remarque
Si vous utilisez Terraform et que vous indiquez
node_eviction_node_pool_settings, vous devez définir explicitementis_force_delete_after_grace_durationsur true, même si true est la valeur par défaut. Le paramètre de propriétéis_force_delete_after_grace_durationn'est pas facultatif si vous utilisez Terraform. -
-
(Facultatif) Balises. Ajoutez des balises définies ou à format libre pour la ressource de pool de noeuds à l'aide des options
--defined-tagsou--freeform-tags. N'indiquez pas de valeurs pour la balise définie OraclePCA-OKE.cluster_id ou pour la balise à format libre ClusterResourceIdentifier. Ces valeurs de balise sont générées par le système et s'appliquent uniquement aux noeuds (instances), et non à la ressource de pool de noeuds.Pour ajouter des balises définies ou à format libre à tous les noeuds du pool de noeuds, utilisez les options
--node-defined-tagset--node-freeform-tags.Important
N'indiquez pas de valeurs pour la balise définie OraclePCA-OKE.cluster_id ou pour la balise à format libre ClusterResourceIdentifier. Ces valeurs de balise sont générées par le système.
(Facultatif) Package de certificats CA personnalisé. Vous pouvez spécifier un groupe de certificats CA personnalisé à utiliser pour vérifier les connexions TLS à un registre de conteneurs privé. Utilisez les paramètres de métadonnées
custom-ca-bundle-cert,registry-hostetregistry-portavec l'option--node-metadata.Dans l'argument d'option
--node-metadata, vous devez fournir des valeurs pourcustom-ca-bundle-cert:--node-metadata '{"custom-ca-bundle-cert":"<base64-encoded-cert-content>"}'Si vous avez configuré un registre privé avec un package d'autorité de certification personnalisé, assurez-vous que les noeuds sont nouvellement provisionnés ou cyclés (redimensionnement et sauvegarde ou redémarrage non simultané) pour appliquer le certificat mis à jour à tous les noeuds de processus actif.
-
-
Exécutez la commande de création de pool de noeuds.
Exemple :
Pour plus d'informations sur les options présentées dans cet exemple et d'autres options telles que
--node-boot-volume-size-in-gbsetnsg-ids, reportez-vous à la procédure Console. L'option--pod-subnet-idsest uniquement applicable si le cluster utilise la mise en réseau de pod natif VCN.$ oci ce node-pool create \ --cluster-id ocid1.cluster.unique_ID --compartment-id ocid1.compartment.unique_ID \ --name node_pool_name --node-shape shape_name --node-image-id ocid1.image.unique_ID \ --placement-configs '[{"availabilityDomain":"AD-1","subnetId":"ocid1.subnet.unique_ID"}]' \ --pod-subnet-ids '["ocid1.subnet.unique_ID"]' --size 10 --ssh-public-key "public_key_text"La sortie de cette commande
node-pool createest identique à la sortie de la commandenode-pool get. L'OCID de cluster est affiché et un bref récapitulatif de chaque noeud est affiché. Pour plus d'informations sur un noeud, utilisez la commandecompute instance getavec l'OCID du noeud.Utilisez la commande
work-request getpour vérifier le statut de l'opération de création de pool de noeuds. L'OCID de demande de travail se trouve danscreated-by-work-request-iddans la sectionmetadatade la sortiecluster get.$ oci ce work-request get --work-request-id workrequest_OCIDLe statut de la demande de travail sera
ACCEPTEDjusqu'à ce que le cluster soit à l'état Actif ou Echec.Pour identifier ces noeuds dans une liste d'instances, notez que les noms de ces noeuds sont au format
oke-ID, oùIDest les 32 premiers caractères après le nom dans l'OCID de pool de noeuds. Recherchez les instances de la liste dont le nom contient la chaîneIDà partir de cet OCID de pool de noeuds.
Pour obtenir la liste complète des commandes, des indicateurs et des options de l'interface de ligne de commandes, reportez-vous à Référence de ligne de commandes
Prochaine étape :
-
Configurez tous les registres ou référentiels dont les noeuds de processus actif ont besoin. Assurez-vous que vous avez accès à un registre de conteneurs public ou intranet autogéré à utiliser avec le service OKE et les images de votre application.
-
Créez un service pour exposer les applications en conteneur en dehors de Private Cloud Appliance. Reportez-vous à Exposition d'applications en conteneur.
-
Créez un stockage persistant pour les applications à utiliser. Reportez-vous à Ajout de stockage pour les applications en conteneur.
-
Utilisez l'opération CreateNodePool pour créer un pool de noeuds.
Pour plus d'informations sur l'utilisation de l'API et la signature des demandes, reportez-vous à API REST et à Informations d'identification de sécurité. Pour plus d'informations sur les kits SDK, reportez-vous à Kits SDK et interface de ligne de commande.
Etapes suivantes :
-
Configurez tous les registres ou référentiels dont les noeuds de processus actif ont besoin. Assurez-vous que vous avez accès à un registre de conteneurs public ou intranet autogéré à utiliser avec le service OKE et les images de votre application.
-
Créez un service pour exposer les applications en conteneur en dehors de Private Cloud Appliance. Reportez-vous à Exposition d'applications en conteneur.
-
Créez un stockage persistant pour les applications à utiliser. Reportez-vous à Ajout de stockage pour les applications en conteneur.
-