Création d'un groupe de noeuds de travail OKE
Voyez comment créer des groupes de noeuds de travail OKE sur le boîtier Private Cloud pour une grappe de charges de travail.
Les noeuds sont des instances de calcul Private Cloud Appliance. Lorsque vous créez un groupe de noeuds de travail, vous indiquez le nombre de noeuds à créer et les autres paramètres qui définissent les instances.
Vous ne pouvez pas personnaliser les scripts OKE cloud-init.
Pour configurer les paramètres du mandataire, utilisez l'interface de ligne de commande ou l'API OCI pour définir le mandataire dans les métadonnées de noeud. Si la grappe utilise le réseau de pods natifs VCN, ajoutez 169.254.169.254 au paramètre noproxy.
La prise en charge de l'autorité de certification personnalisée est disponible uniquement à l'aide de l'interface de ligne de commande (oci ce node-pool create et oci ce node-pool update).
-
Dans le menu de navigation Interface Web du service de calcul, sélectionnez Conteneurs, puis Grappes Kubernetes (OKE).
Si la grappe à laquelle vous voulez attacher un groupe de noeuds n'est pas répertoriée, sélectionnez un autre compartiment dans le menu de compartiment en haut de la page.
-
Sélectionnez le nom de la grappe à laquelle vous voulez ajouter un groupe de noeuds.
-
Dans la page des détails de la grappe, faites défiler l'affichage jusqu'à la section Ressources et sélectionnez Groupes de noeuds.
-
Dans la liste Groupes de noeuds, sélectionnez le bouton Ajouter un groupe de noeuds.
-
Dans la boîte de dialogue Ajouter un groupe de noeuds, fournissez les informations suivantes :
-
Nom : Nom du nouveau groupe de noeuds. Évitez d'entrer des informations confidentielles.
-
compartiment : compartiment dans lequel créer le nouveau groupe de noeuds.
-
Options de groupe de noeuds : Dans le champ Nombre de noeuds, entrez le nombre de noeuds voulus dans ce groupe. La valeur par défaut est 0. Le nombre maximal est de 128 par grappe, qui peut être répartie entre plusieurs groupes de noeuds.
-
Groupe de sécurité de réseau : Si vous cochez la case pour activer les groupes de sécurité de réseau, sélectionnez Ajouter un groupe de sécurité de réseau et sélectionnez un groupe de sécurité de réseau dans la liste déroulante. Vous devrez peut-être modifier le compartiment pour trouver le groupe de sécurité de réseau souhaité. La carte VNIC principale du sous-réseau de travail sera associée à ce groupe de sécurité de réseau.
-
Configuration de positionnement
-
Sous-réseau de noeuds de travail : Sélectionnez un sous-réseau qui a une configuration telle que le sous-réseau "travailleur" décrit dans Création d'un sous-réseau de travail (superposition de canal) ou Création d'un sous-réseau de travail (VCN-Native Pod). Pour une grappe publique, créez la version privée NAT du sous-réseau de "travailleur". Pour une grappe privée, créez la version privée de réseau en nuage virtuel (VCN) du sous-réseau "travailleur". Sélectionnez un seul sous-réseau. Les règles du sous-réseau doivent être définies pour communiquer avec le point d'extrémité du plan de contrôle. Le sous-réseau doit utiliser une table de routage privée et doit avoir une liste de sécurité telle que la liste de sécurité worker-seclist décrite dans Création d'un sous-réseau de travailleur (superposition de canal) ou Création d'un sous-réseau de travailleur (VCN-Native Pod).
-
Domaine d'erreur : Sélectionnez un domaine d'erreur ou sélectionnez Sélectionner automatiquement le meilleur domaine d'erreur, qui est l'option par défaut. Un appareil en périphérie de réseau Rover ne comporte que 1 domaine d'erreur.
-
-
Image source : Sélectionnez une image.
-
Sélectionnez le type de source d'image de plate-forme.
-
Sélectionnez une image dans la liste.
La liste d'images contient des colonnes Système d'exploitation, Version du système d'exploitation et Version de Kubernetes. Vous pouvez utiliser la flèche de menu déroulant à droite de la version du système d'exploitation ou de la version de Kubernetes pour sélectionner une autre version. Si plus d'une image a la même version de Kubernetes, sélectionnez l'image la plus récente, en fonction de la date dans le nom de l'image.
Si l'image que vous souhaitez utiliser n'est pas répertoriée, utilisez la procédure CLI et spécifiez l'OCID de l'image. Pour obtenir l'OCID de l'image souhaitée, utilisez la commande
ce node-pool getpour un groupe de noeuds dans lequel vous avez déjà utilisé cette image.Note
L'image que vous spécifiez ne doit pas avoir une version de Kubernetes plus récente que la version de Kubernetes que vous avez spécifiée lors de la création de la grappe. La version de Kubernetes pour la grappe se trouve dans une colonne de la table de liste des grappes.
-
-
Forme : Sélectionnez une forme pour les noeuds de travail. Pour obtenir la description des formes disponibles, voir Formes de calcul. Si vous utilisez l'ajout de grappe d'opérateurs GPU, vous pouvez utiliser les formes GPU prises en charge.
Si vous sélectionnez une forme qui n'est pas flexible, la quantité de mémoire et le nombre d'OCPU sont affichés. Ces nombres correspondent aux nombres affichés pour cette forme dans le tableau sous Formes de calcul.
Si vous sélectionnez une forme flexible, vous devez spécifier le nombre d'OCPU souhaité. Vous pouvez éventuellement indiquer la quantité totale de mémoire souhaitée. La valeur par défaut pour les gigaoctets de mémoire est 16 fois le nombre que vous spécifiez pour les OCPU. Cliquez dans chaque champ de valeur pour voir les valeurs minimale et maximale permise.
Note
Affectez au moins 2 OCPU et 32 Go de mémoire pour chaque tranche de 10 pods en cours d'exécution. Vous devrez peut-être allouer plus de ressources, en fonction des charges de travail planifiées. Voir Resource Management pour les pods et les conteneurs.
-
Volume de démarrage : (Facultatif) Cochez la case pour spécifier une taille de volume de démarrage personnalisée.
Taille du volume de démarrage (Go) : La taille du volume de démarrage par défaut pour l'image sélectionnée s'affiche. Pour spécifier une taille plus grande, entrez une valeur comprise entre 50 et 16384 en gigaoctets (50 Go à 16 To) ou utilisez les flèches d'incrément et de décrément.
Si vous spécifiez une taille de volume de démarrage personnalisée, vous devez étendre la partition pour tirer parti de la plus grande taille. Les images de plate-forme Oracle Linux incluent l'ensemble
oci-utils. Utilisez la commandeoci-growfsde cet ensemble pour étendre la partition racine, puis développer le système de fichiers. Voir oci-growfs. -
Communication par pod (grappes de réseau de pods natifs VCN uniquement)
Sous-réseau de communication de pod : Sélectionnez un sous-réseau qui a une configuration telle que le sous-réseau "pod" décrit dans Création d'un sous-réseau de pods (VCN-Native Pod).
Nombre de pods par noeud : Nombre maximal de pods à exécuter sur un seul noeud de travail d'un groupe de noeuds. La valeur par défaut est 31. Vous pouvez entrer un nombre compris entre 1 et 110. Le nombre de cartes vNIC autorisé par la forme que vous spécifiez (voir "Forme" ci-dessus) limite ce nombre maximal de pods. Voir Formes de noeud et nombre de pods. Pour conserver l'espace d'adresse du sous-réseau de pods, réduisez le nombre maximal de pods à exécuter sur un seul noeud de travail. Cela réduit le nombre d'adresses IP préaffectées dans le sous-réseau de pods.
Si vous cochez la case Use Security Rules in Network Security Group (NSG), sélectionnez le bouton Add Network Security Group et sélectionnez un NSG dans la liste déroulante. Vous devrez peut-être modifier le compartiment pour trouver le groupe de sécurité de réseau souhaité. Les cartes vNIC secondaires du sous-réseau de pod seront attachées à ce groupe de sécurité de réseau.
-
Cordon et drainage : (Facultatif) Entrez le nombre de minutes de durée de grâce d'expulsion ou utilisez les flèches pour réduire ou augmenter le nombre de minutes de durée de grâce d'expulsion. La valeur maximale et la valeur par défaut sont 60 minutes.
-
Private Cloud Appliance version 3.0.2-b1261765. Préciser un nombre entier de 0 à 60. Si vous entrez 0, la valeur sera convertie à 0,333 car 20 secondes correspond à la durée de grâce d'expulsion minimale. Si vous sélectionnez ensuite la flèche vers le haut, la valeur passera à 1.
-
Private Cloud Appliance version 3.0.2-b1185392. Préciser un nombre entier de 1 à 60.
Vous ne pouvez pas effacer "Forcer l'arrêt après le délai de grâce". Les noeuds sont supprimés après l'expulsion de leurs pods ou à la fin de la durée de grâce d'expulsion, même si tous les pods ne sont pas expulsés.
Pour une description de la durée de grâce du cordon et du drainage et de l'expulsion, sélectionnez l'onglet de l'interface de ligne de commande dans cette page et voir Paramètres de suppression de noeud et de groupe de noeuds.
-
-
Clé SSH : Clé SSH publique pour les noeuds de travail. Chargez le fichier de clé publique ou copiez et collez le contenu du fichier.
-
Étiquettes Kubernetes : Sélectionnez le bouton Ajouter une étiquette Kubernetes et entrez un nom et une valeur de clé. Vous pouvez utiliser ces étiquettes pour cibler les pods à des fins de programmation sur des noeuds ou des groupes de noeuds spécifiques. Pour une description et un exemple, sélectionnez l'onglet Interface de ligne de commande dans cette page et voir Étiquettes.
-
Marqueurs de groupe de noeuds : Marqueurs définis ou à structure libre pour la ressource de groupe de noeuds.
Note
Ne spécifiez pas de valeurs pour le marqueur défini par OraclePCA-OKE.cluster_id ou pour le marqueur à structure libre ClusterResourceIdentifier. Ces valeurs de marqueur sont générées par le système et appliquées uniquement aux noeuds (instances), et non à la ressource de groupe de noeuds.
-
Marqueurs de noeud : Marqueurs définis ou à structure libre appliqués à chaque noeud du groupe de noeuds.
Important
Ne spécifiez pas de valeurs pour le marqueur défini par OraclePCA-OKE.cluster_id ou pour le marqueur à structure libre ClusterResourceIdentifier. Ces valeurs de marqueur sont générées par le système.
-
-
Sélectionnez le bouton Ajouter un groupe de noeuds dans la boîte de dialogue.
La page de détails du groupe de noeuds s'affiche. Faites défiler jusqu'à la section Ressources et sélectionnez Demandes de travail pour voir la progression de la création du groupe de noeuds et voir les noeuds ajoutés à la liste des noeuds. Le statut de la demande de travail est Accepté jusqu'à ce que la grappe ait l'état Actif ou Échec.
Pour identifier ces noeuds dans une liste d'instances, notez que les noms de ces noeuds sont dans le format
oke-ID, oùIDest les 32 premiers caractères aprèspca_namedans l'OCID du groupe de noeuds. Recherchez les instances de la liste dont les noms contiennent la chaîneIDde l'OCID de ce groupe de noeuds.
Étape suivante :
-
Configurez tous les registres ou référentiels dont les noeuds de travail ont besoin. Assurez-vous d'avoir accès à un registre de conteneurs public ou intranet autogéré à utiliser avec le service OKE et vos images d'application.
-
Créez un service pour exposer des applications en conteneurs en dehors du boîtier Private Cloud Appliance. Voir Exposition d'applications conteneurisées.
-
Créer un stockage persistant pour les applications à utiliser. Voir Ajout du stockage pour les applications conteneurisées.
-
Utilisez la commande oci ce node-pool create et les paramètres requis pour créer un nouveau groupe de noeuds.
oci ce node-pool create --cluster-id cluster_OCID --compartment-id compartment_OCID --name pool_name --node-shape node_shape_name [OPTIONS]-
Obtenez les informations dont vous avez besoin pour exécuter la commande.
-
OCID du compartiment dans lequel vous voulez créer le groupe de noeuds :
oci iam compartment list -
OCID de la grappe pour ce groupe de noeuds :
oci ce cluster list
-
Nom du groupe de noeuds. Évitez d'entrer des informations confidentielles.
-
Configuration de positionnement pour les noeuds, notamment l'OCID du sous-réseau de travail et le domaine d'erreur. Pour obtenir une description supplémentaire, sélectionnez l'onglet Console de cette page et voir Configuration du placement. Utilisez la commande suivante pour afficher le contenu et le format de cette option :
$ oci ce node-pool create --generate-param-json-input placement-configsUtilisez la commande suivante pour lister les domaines d'erreur :
oci iam fault-domain list. N'indiquez pas plus d'un domaine d'erreur ou plus d'un sous-réseau dans la configuration de positionnement. Pour permettre au système de sélectionner les meilleurs domaines d'erreur, n'indiquez aucun domaine d'erreur. Un appareil en périphérie de réseau Rover ne comporte que 1 domaine d'erreur. -
(Grappes de réseau de pods natifs VCN uniquement) OCID du sous-réseau de pods. Voir Création d'un sous-réseau de pods (VCN-Native Pod). Pour obtenir une description supplémentaire, sélectionnez l'onglet Console de cette page et voir Communication sur les pods. Utilisez l'option
--pod-subnet-ids. Bien que la valeur de l'option--pod-subnet-idssoit un tableau, vous ne pouvez spécifier qu'un seul OCID de sous-réseau de pods.Nombre maximal de pods à exécuter sur un seul noeud de travail d'un groupe de noeuds. Utilisez l'option
--max-pods-per-node. La valeur par défaut est 31. Vous pouvez entrer un nombre compris entre 1 et 110. Le nombre de cartes vNIC autorisées par la forme que vous spécifiez (voir Nom de la forme) limite ce nombre maximal de pods. Voir Formes de noeud et nombre de pods. Pour conserver l'espace d'adresse du sous-réseau de pods, réduisez le nombre maximal de pods à exécuter sur un seul noeud de travail. Cela réduit le nombre d'adresses IP préaffectées dans le sous-réseau de pods.(Facultatif) OCID du groupe de sécurité de réseau à utiliser pour les pods de ce groupe de noeuds. Utilisez l'option
--pod-nsg-ids. Vous pouvez spécifier jusqu'à cinq groupes NSG. -
OCID de l'image à utiliser pour les noeuds de ce groupe de noeuds.
Utilisez la commande suivante pour obtenir l'OCID de l'image à utiliser :
$ oci compute image list --compartment-id compartment_OCIDSi l'image que vous voulez utiliser n'est pas répertoriée, vous pouvez obtenir l'OCID de l'image à partir de la sortie de la commande
ce node-pool getpour un groupe de noeuds où vous avez déjà utilisé cette image.Note
L'image que vous spécifiez doit avoir
-OKE-dansdisplay-nameet ne doit pas avoir une version de Kubernetes plus récente que la version de Kubernetes que vous avez spécifiée lors de la création de la grappe.La version de Kubernetes pour la grappe est affichée dans la sortie
cluster list. La version de Kubernetes pour l'image est affichée dans la propriétédisplay-namedans la sortieimage list. La version de Kubernetes de l'image suivante est 1.29.9."display-name": "uln-pca-Oracle-Linux8-OKE-1.29.9-20250325.oci"
Si plus d'une image a la même version de Kubernetes, sélectionnez l'image la plus récente, en fonction de la date dans le nom de l'image.
Ne spécifiez pas l'option
--kubernetes-versiondans la commandenode-pool create.Vous pouvez spécifier une taille de volume de démarrage personnalisée en gigaoctets. La taille du volume de démarrage par défaut est de 50 Go. Pour spécifier une taille de volume de démarrage personnalisée, utilisez l'option
--node-source-detailspour spécifier à la fois la taille du volume de démarrage et l'image. Vous ne pouvez pas spécifier--node-image-idet--node-source-details. Utilisez la commande suivante pour afficher le contenu et le format de l'option de détails de la source du noeud.$ oci ce node-pool create --generate-param-json-input node-source-detailsSi vous spécifiez une taille de volume de démarrage personnalisée, vous devez étendre la partition pour tirer parti de la plus grande taille. Les images de plate-forme Oracle Linux incluent l'ensemble
oci-utils. Utilisez la commandeoci-growfsde cet ensemble pour étendre la partition racine, puis développer le système de fichiers. Voir oci-growfs. -
Nom de la forme des noeuds de travail de ce groupe de noeuds. Si vous utilisez l'ajout de grappe d'opérateurs GPU, vous pouvez utiliser les formes GPU prises en charge. Pour tous les autres systèmes Private Cloud Appliance, la forme par défaut est VM.PCAStandard1.1 et vous pouvez spécifier une forme différente. Pour obtenir la description des formes disponibles, voir Formes de calcul.
Si vous spécifiez une forme flexible, vous devez également spécifier la configuration de la forme, comme illustré dans l'exemple suivant. Vous devez fournir une valeur pour
ocpus. La propriétémemoryInGBsest facultative; la valeur par défaut en gigaoctets est 16 fois le nombre deocpus.--node-shape-config '{"ocpus": 32, "memoryInGBs": 512}'Note
Affectez au moins 2 OCPU et 32 Go de mémoire pour chaque tranche de 10 pods en cours d'exécution. Vous devrez peut-être allouer plus de ressources, en fonction des charges de travail planifiées. Voir Resource Management pour les pods et les conteneurs.
Si vous spécifiez une forme qui n'est pas flexible, ne spécifiez pas
--node-shape-config. Le nombre d'OCPU et la quantité de mémoire sont réglés aux valeurs affichées pour cette forme dans "Formes standard" dans Formes de calcul. -
(Facultatif) OCID du groupe de sécurité de réseau à utiliser pour les noeuds de ce groupe de noeuds. Utilisez l'option
. Ne spécifiez pas plus d'un groupe de sécurité de réseau.--nsg-ids -
(Facultatif) Étiquettes. La définition d'étiquettes sur les noeuds vous permet de cibler les pods pour la programmation sur des noeuds ou des groupes de noeuds spécifiques. Utilisez cette fonctionnalité pour vous assurer que des pods spécifiques s'exécutent uniquement sur des noeuds dotés de certaines propriétés d'isolement, de sécurité ou réglementaires.
Utilisez l'option
--initial-node-labelspour ajouter des étiquettes aux noeuds. Les étiquettes sont une liste de paires clé-valeur à ajouter aux noeuds après leur jointure à la grappe Kubernetes. Voir Restrictions de clé de métadonnées pour plus d'informations sur les limites de métadonnées.Voici un exemple d'étiquette à appliquer aux noeuds du groupe de noeuds :
--initial-node-labels '[{"key":"disktype","value":"ssd"}]Un moyen facile de sélectionner des noeuds en fonction de leurs étiquettes consiste à utiliser
nodeSelectordans la configuration du pod. Kubernetes programme uniquement le pod sur des noeuds ayant chacune des étiquettes spécifiées dans la sectionnodeSelector.L'exemple suivant extrait d'une configuration de pod spécifie que les pods qui utilisent cette configuration doivent être exécutés sur des noeuds ayant l'étiquette de type de disque
ssd:nodeSelector: disktype: ssd
-
(Facultatif) Métadonnées du noeud. Utilisez l'option
pour attacher des données d'utilisateur personnalisées aux noeuds. Voir l'élément de paramètres de mandataire suivant pour un exemple spécifique.--node-metadataVoir Restrictions de clé de métadonnées pour plus d'informations sur les limites de métadonnées. La taille maximale des métadonnées de noeud est de 32 000 octets.
-
(Facultatif) Paramètres du mandataire. Si votre réseau nécessite des paramètres de mandataire pour permettre aux noeuds de travail d'accéder à des registres ou référentiels externes, par exemple, créez un argument pour l'option
--node-metadata.Dans l'argument d'option
--node-metadata, fournissez des valeurs pourcrio-proxyetcrio-noproxy, comme indiqué dans l'exemple d'argument de fichier suivant :{ "crio-proxy": "http://your_proxy.your_domain_name:your_port", "crio-noproxy": "localhost,127.0.0.1,your_domain_name,ocir.io,Kubernetes_cidr,pods_cidr" }Si la grappe utilise le réseau de pods natifs VCN, ajoutez 169.254.169.254 au paramètre noproxy, comme dans l'exemple suivant :
"crio-noproxy": "localhost,127.0.0.1,your_domain_name,ocir.io,Kubernetes_cidr,pods_cidr,169.254.169.254" -
(Facultatif) Paramètres de suppression de noeud et de groupe de noeuds. Vous pouvez spécifier comment gérer la suppression de noeuds lorsque vous supprimez un groupe de noeuds, supprimer un noeud spécifié, réduire la taille du groupe de noeuds ou modifier la configuration de positionnement des noeuds du groupe de noeuds. Ces paramètres de suppression de noeud peuvent également être définis ou modifiés lorsque vous mettez à jour le groupe de noeuds, supprimez un noeud spécifié ou supprimez le groupe de noeuds.
Pour spécifier les paramètres de suppression du groupe de noeuds, créez un argument pour l'option
--node-eviction-node-pool-settings. Vous pouvez spécifier la durée de grâce d'expulsion (evictionGraceDuration) pour les noeuds. Les noeuds sont toujours supprimés une fois leurs pods expulsés ou à la fin de la durée de grâce d'expulsion.-
Durée de grâce d'expulsion. Cette valeur spécifie le temps nécessaire pour connecter et drainer les noeuds de travail.
Un noeud qui est cordonné ne peut pas avoir de nouveaux pods placés dessus. Les pods existants sur ce noeud ne sont pas touchés.
Lorsqu'un noeud est drainé, les conteneurs de chaque pod s'arrêtent normalement et effectuent tout nettoyage nécessaire.
La valeur de la durée de grâce d'expulsion est exprimée au format ISO 8601 : par exemple, PT45S, PT20M ou PT39M21S. La valeur par défaut et la valeur maximale sont de 60 minutes (PT60M). La valeur minimale est de 20 secondes (PT20S). OKE tente toujours de drainer les noeuds pendant au moins 20 secondes.
-
Forcer la suppression. Les noeuds sont toujours supprimés une fois leurs pods expulsés ou à la fin de la durée de grâce d'expulsion. Après la durée de grâce d'expulsion par défaut ou spécifiée, le noeud est supprimé, même si un ou plusieurs conteneurs de pod ne sont pas complètement drainés.
Voici un exemple d'argument pour l'option
--node-eviction-node-pool-settings. Si vous incluez la propriétéisForceDeleteAfterGraceDuration, sa valeur doit êtretrue. Les noeuds sont toujours supprimés une fois leurs pods expulsés ou à la fin de la durée de grâce d'expulsion.--node-eviction-node-pool-settings '{"evictionGraceDuration": "PT30M", "isForceDeleteAfterGraceDuration": true}'Note
Si vous utilisez Terraform et que vous spécifiez
node_eviction_node_pool_settings, vous devez régler explicitementis_force_delete_after_grace_durationà Vrai, même si Vrai est la valeur par défaut. Le paramètre de propriétéis_force_delete_after_grace_durationn'est pas facultatif si vous utilisez Terraform. -
-
(Facultatif) Marqueurs. Ajoutez des marqueurs définis ou à structure libre pour la ressource de groupe de noeuds à l'aide des options
--defined-tagsou--freeform-tags. Ne spécifiez pas de valeurs pour le marqueur défini OraclePCA-OKE.cluster_id ou pour le marqueur à structure libre ClusterResourceIdentifier. Ces valeurs de marqueur sont générées par le système et appliquées uniquement aux noeuds (instances), et non à la ressource de groupe de noeuds.Pour ajouter des marqueurs définis ou à structure libre à tous les noeuds du groupe de noeuds, utilisez les options
--node-defined-tagset--node-freeform-tags.Important
Ne spécifiez pas de valeurs pour le marqueur défini OraclePCA-OKE.cluster_id ou pour le marqueur à structure libre ClusterResourceIdentifier. Ces valeurs de marqueur sont générées par le système.
(Facultatif) Ensemble de certificats de l'autorité de certification personnalisée. Vous pouvez spécifier un ensemble de certificats d'autorité de certification personnalisé à utiliser pour vérifier les connexions TLS à un registre de conteneur privé. Utilisez les paramètres de métadonnées
custom-ca-bundle-cert,registry-hostetregistry-portavec l'option--node-metadata.Dans l'argument d'option
--node-metadata, vous devez fournir des valeurs pourcustom-ca-bundle-cert:--node-metadata '{"custom-ca-bundle-cert":"<base64-encoded-cert-content>"}'Si vous avez configuré un registre privé avec un ensemble AC personnalisé, assurez-vous que les noeuds sont nouvellement provisionnés ou cyclés (réduits et sauvegardés ou redémarrés de manière continue) pour appliquer le certificat mis à jour à tous les noeuds de travail.
-
-
Exécutez la commande de création de groupe de noeuds.
Exemple :
Pour plus d'informations sur les options présentées dans cet exemple, voir la procédure de la console et d'autres options telles que
--node-boot-volume-size-in-gbsetnsg-ids. L'option--pod-subnet-idsn'est applicable que si la grappe utilise le réseau de pods natifs du réseau en nuage virtuel (VCN).$ oci ce node-pool create \ --cluster-id ocid1.cluster.unique_ID --compartment-id ocid1.compartment.unique_ID \ --name node_pool_name --node-shape shape_name --node-image-id ocid1.image.unique_ID \ --placement-configs '[{"availabilityDomain":"AD-1","subnetId":"ocid1.subnet.unique_ID"}]' \ --pod-subnet-ids '["ocid1.subnet.unique_ID"]' --size 10 --ssh-public-key "public_key_text"La sortie de cette commande
node-pool createest identique à la sortie de la commandenode-pool get. L'OCID de la grappe est affiché et un bref résumé de chaque noeud est affiché. Pour plus d'informations sur un noeud, utilisez la commandecompute instance getavec l'OCID du noeud.Utilisez la commande
work-request getpour vérifier le statut de l'opération de création de groupe de noeuds. L'OCID de la demande de travail se trouve danscreated-by-work-request-iddans la sectionmetadatade la sortiecluster get.$ oci ce work-request get --work-request-id workrequest_OCIDLe statut de la demande de travail sera
ACCEPTEDjusqu'à ce que la grappe ait l'état Actif ou Échec.Pour identifier ces noeuds dans une liste d'instances, notez que les noms de ces noeuds sont dans le format
oke-ID, oùIDest les 32 premiers caractères après le nom dans l'OCID du groupe de noeuds. Recherchez les instances de la liste dont les noms contiennent la chaîneIDde l'OCID de ce groupe de noeuds.
Pour la liste complète des commandes, indicateurs et options de l'interface de ligne de commande, voir Référence de ligne de commande.
Étape suivante :
-
Configurez tous les registres ou référentiels dont les noeuds de travail ont besoin. Assurez-vous d'avoir accès à un registre de conteneurs public ou intranet autogéré à utiliser avec le service OKE et vos images d'application.
-
Créez un service pour exposer des applications en conteneurs en dehors du boîtier Private Cloud Appliance. Voir Exposition d'applications conteneurisées.
-
Créer un stockage persistant pour les applications à utiliser. Voir Ajout du stockage pour les applications conteneurisées.
-
Utilisez l'opération CreateNodePool pour créer un nouveau groupe de noeuds.
Pour plus d'informations sur l'utilisation de l'API et sur les demandes de signature, voir API REST et Données d'identification de sécurité. Pour plus d'informations sur les trousses SDK, voir Trousses SDK et interface de ligne de commande.
Étapes suivantes :
-
Configurez tous les registres ou référentiels dont les noeuds de travail ont besoin. Assurez-vous d'avoir accès à un registre de conteneurs public ou intranet autogéré à utiliser avec le service OKE et vos images d'application.
-
Créez un service pour exposer des applications en conteneurs en dehors du boîtier Private Cloud Appliance. Voir Exposition d'applications conteneurisées.
-
Créer un stockage persistant pour les applications à utiliser. Voir Ajout du stockage pour les applications conteneurisées.
-