Ressources affectées aux pods provisionnés par des noeuds virtuels
Découvrez les limites et d'autres facteurs à prendre en compte dans l'affectation des ressources d'UC, de mémoire et de stockage aux pods provisionnés par des noeuds virtuels lors de l'utilisation de Kubernetes Engine (OKE).
Lors de l'utilisation de noeuds virtuels, l'allocation des ressources est au niveau du pod (plutôt qu'au niveau du noeud de travail).
Affectation de ressources d'UC et de mémoire
Pour calculer le nombre d'UC (exprimées dans les UC Oracle ou les OCPU) et la quantité de mémoire à affecter aux pods provisionnés par des noeuds virtuels, Kubernetes Engine tient compte des éléments suivants :
- les demandes et les limites d'UC et de mémoire pour chaque conteneur spécifié dans la spécification de pod, le cas échéant
- le nombre de conteneurs dans le pod
- les exigences d'exécution kube-proxy et container (0.25GB de mémoire, CPU négligeable)
Les minimums suivants s'appliquent aux demandes d'UC et de mémoire de pod :
- 0.125 OCPU
- 0.5GB de mémoire
En ce qui concerne les limites d'UC et de mémoire et les demandes spécifiées dans la spécification de pod pour les conteneurs, le moteur Kubernetes applique les règles suivantes lors du calcul de l'allocation d'OCPU et de mémoire :
- Si une limite est spécifiée dans la spécification de pod mais qu'aucune demande n'est effectuée, le moteur Kubernetes utilise la valeur limite.
- Si une demande est spécifiée mais sans limite, le moteur Kubernetes utilise la valeur de la demande.
- Si une demande et une limite sont spécifiées, le moteur Kubernetes utilise la valeur limite.
- Si aucune demande ni limite n'est spécifiée, Kubernetes Engine utilise 0,125 OCPU et 0.5GB par conteneur.
Comme les pods provisionnés par des noeuds virtuels ont toujours une capacité assurée, nous vous recommandons de définir des limites et des demandes à la même valeur.
Le nombre maximal d'UC pouvant être affectées à des pods provisionnés par des noeuds virtuels dépend de la forme (et du processeur) spécifiée pour le groupe de noeuds virtuels. Par exemple, dans le cas de Pod.Standard.E3. Flex et Pod.Standard.E4. Formes flexibles (AMD), le nombre maximal est de 64 coeurs (128 vCPUs).
Le nombre d'OCPU affectées aux pods provisionnés par des noeuds virtuels détermine également la bande passante de réseau disponible pour les pods, avec une disponibilité de 1 Gbit/s par OCPU soumise aux limites suivantes :
- une limite de bande passante maximale de 40 Gbit/s
- une limite de bande passante minimale de 1 Gbit/s
Lors du calcul de l'allocation d'OCPU et de mémoire, le moteur Kubernetes effectue actuellement les opérations suivantes :
- arrondit l'affectation d'UC au nombre entier d'OCPU le plus proche
- arrondit l'allocation de mémoire au nombre entier de Go le plus proche
Affectation de stockage
Les pods provisionnés par des noeuds virtuels disposent chacun de 15 Go d'espace de stockage, dans lequel stocker les systèmes de fichiers racine des conteneurs exécutés sur le pod. Notez que les images de conteneur consomment une partie de cette affectation de stockage de 15 Go. L'affectation restante est disponible pour l'application en tant que stockage temporaire.
Facturation des ressources
Lors de l'exécution d'une tâche Kubernetes sur des noeuds virtuels, notez que vous continuez d'être facturé pour les ressources utilisées par la tâche tant qu'elle existe, même lorsque la tâche est terminée ou a échoué. Par conséquent, pour éviter d'être facturé pour des ressources inutilement, supprimez la tâche une fois qu'elle est terminée. Par exemple, à l'aide d'une commande telle que kubectl delete job <job-name>
ou kubectl delete -f <job-spec>.yaml
.