Actualización de un pool de nodos gestionado

Descubra cómo actualizar un pool de nodos gestionado mediante Kubernetes Engine (OKE).

Para obtener información general sobre la actualización de pools de nodos, consulte Modificación de las propiedades del pool de nodos y del nodo de trabajador.

  • Para modificar las propiedades del pool de nodos y los nodos de trabajador de los clusters existentes de Kubernetes:

    1. En la página de lista Clusters, seleccione el nombre del cluster que desea modificar. Si necesita ayuda para encontrar la página de lista o el cluster, consulte Listing Clusters.
    2. Seleccione el separador Pools de nodos y, a continuación, seleccione el nombre del pool de nodos que desea modificar.
    3. Utilice el separador Detalles de la página del pool de nodos para ver información sobre el pool de nodos, incluidos:

      • El estado del pool de nodos.
      • El OCID del pool de nodos.
      • El tipo de nodos de trabajador en el pool de nodos (gestionado o virtual).
      • Configuración utilizada actualmente al iniciar nuevos nodos de trabajador en el pool de nodos, incluida:
        • la versión de Kubernetes que se debe ejecutar en los nodos de trabajador
        • la unidad que se utilizará para los nodos de trabajador
        • la imagen que se va a utilizar en los nodos de trabajador
      • Los dominios de disponibilidad, los dominios de errores y diferentes subredes regionales (se recomienda) o subredes específicas de dominio de disponibilidad que alojan nodos de trabajador.

      El tipo de nodos de trabajador del pool de nodos (gestionados o virtuales) determina qué propiedades del pool de nodos y las propiedades del nodo de trabajador se pueden cambiar.

    4. (Opcional) En el caso de un pool de nodos gestionados y nodos gestionados, cambie las propiedades de la siguiente manera:

      1. En el menú Acciones, seleccione Editar y especifique:
        • Nombre: nombre diferente para el pool de nodos. Evite introducir información confidencial.
        • Versión: versión diferente de Kubernetes que se ejecutará en los nuevos nodos de trabajador del pool de nodos al realizar una actualización insitu. La versión de Kubernetes en nodo de trabajador debe ser la misma que en el nodo de plano de control o una versión anterior que aún sea compatible (consulte Versiones de de Kubernetes y Kubernetes Engine (OKE)).

          Tenga en cuenta que si especifica una imagen de OKE para nodos de trabajador, la versión de Kubernetes que seleccione aquí debe ser la misma que la versión de Kubernetes en la imagen de OKE.

          Para iniciar nuevos nodos de trabajador que ejecuten la versión de Kubernetes especificada, purgue los nodos de trabajador existentes en el pool de nodos (para evitar que comiencen nuevos pods y que se supriman pods existentes) y, a continuación, termine cada uno de los nodos de trabajador existentes a su vez.

          También puede especificar una versión diferente de Kubernetes que se ejecutará en nuevos nodos de trabajador realizando una actualización externa. Para obtener más información sobre la actualización de nodos de trabajador, consulte Actualización de nodos gestionados a una versión de Kubernetes más reciente.

        • Recuento de nodos: número diferente de nodos en el pool de nodos. Consulte Escalado de pools de nodos.
        • Opciones avanzadas: acepte los valores existentes para las opciones avanzadas del pool de nodos o seleccione Opciones avanzadas y especifique alternativas de la siguiente manera:

          • Cordón y drenaje: cambie cuándo y cómo acordonar y drenar los nodos de trabajador antes de cesarlos.

            • Período de gracia de expulsión (minutos): período de tiempo que se permite acordonar y drenar los nodos de trabajador antes de cesarlos. Acepte el valor predeterminado (60 minutos) o especifique una alternativa. Por ejemplo, al reducir un pool de nodos o cambiar su configuración de ubicación, puede que desee permitir 30 minutos para acordonar nodos de trabajador y vaciarlos de sus cargas de trabajo. Para cesar los nodos de trabajador inmediatamente, sin acordonarlos ni drenarlos, especifique 0 minutos.
            • Forzar terminación después del período de gracia: al sustituir nodos o suprimir nodos en el pool de nodos, si se deben terminar los nodos de trabajador al final del período de gracia de expulsión, incluso si no se han corregido y drenado correctamente. Por defecto, esta opción no está seleccionada.
            • Forzar acción después del período de gracia: al realizar tareas de mantenimiento en nodos de trabajador (como reiniciar un nodo y sustituir el volumen de inicio de un nodo), si se debe realizar la acción al final del período de gracia de expulsión, incluso si el nodo de trabajador no se ha corregido y drenado correctamente. Por defecto, esta opción no está seleccionada.

            Los pools de nodos que contienen nodos de trabajador que no se pueden cerrar ni terminar en el período de gracia de expulsión tienen el estado Necesita atención. El estado de la solicitud de trabajo que inició la operación de cese se define en Fallo y la operación de cese se cancela. Para obtener más información, consulte Monitoring Clusters.

            Para obtener más información, consulte Cordoning and Draining Managed Nodes Before Shut Down or Termination.

          • Script de inicialización: (opcional) script diferente para que cloud-init se ejecute en instancias que alojan nodos de trabajador cuando la instancia se inicia por primera vez. El script que especifique debe escribirse en uno de los formatos admitidos por cloud-init (por ejemplo, cloud-config) y debe ser un tipo de archivo admitido (por ejemplo, .yaml). Especifique el script como se indica a continuación:
            • Seleccionar script cloud-init: seleccione un archivo que contenga el script cloud-init o arrastre y suelte el archivo en el cuadro.
            • Pegar script cloud-init: copie el contenido de un script cloud-init y péguelo en el cuadro.

            Si no ha escrito previamente scripts cloud-init para inicializar nodos de trabajador en clusters creados por Kubernetes Engine, puede que le resulte útil seleccionar Descargar para descargar una plantilla de script cloud-init. El archivo descargado contiene la lógica por defecto proporcionada por Kubernetes Engine. Puede agregar su propia lógica personalizada antes o después de la lógica predeterminada, pero no modifique la lógica predeterminada. Para ver ejemplos, consulte Casos de uso de ejemplo para scripts personalizados de Cloud-init.

          • etiquetas de Kubernetes: (opcional) una o más etiquetas (además de una etiqueta por defecto) para agregar a los nodos del trabajador en el pool de nodo a fin del objetivo de permitir el direccionamiento de cargas de trabajo en pools de nodo específicos. Por ejemplo, para excluir todos los nodos de un pool de nodos de la lista de servidores backend de un juego de backends del equilibrador de carga, especifique node.kubernetes.io/exclude-from-external-load-balancers=true (consulte node.kubernetes.io/exclude-from-external-load-balancers).
          • Agregar una clave SSH: (opcional) parte de la clave pública diferente del par de clave que desea utilizar para el acceso SSH a los nodos del pool de nodo. La clave pública está instalada en todos los nodos de trabajador del cluster. Tenga en cuenta que si no especifica una clave SSH pública, Kubernetes Engine proporcionará una. Sin embargo, puesto que no tendrá la clave privada correspondiente, no tendrá acceso SSH a los nodos de trabajador. Debe tener en cuenta que no puede utilizar SSH para acceder directamente a ningún nodo del trabajador en subredes privadas (consulte Conexión a nodos gestionados en subredes privadas mediante SSH).
        • Configuración de colocación de nodo:
          • Dominio de Disponibilidad: dominio de Disponibilidad en el que colocar nodos de trabajador.
          • Compartimento de subred de nodo de trabajador: compartimento en el que reside la subred de nodo de trabajador.
          • Subred de nodo de trabajador: subred regional (recomendada) o subred específica del dominio de disponibilidad configurada para alojar nodos de trabajador. Si especificó subredes de equilibrador de carga, las subredes de nodos de trabajador deben ser diferentes. Las subredes que especifique pueden ser privadas (recomendadas) o públicas. Consulte Configuración de subred.
          • Dominios de errores: (opcional) uno o más dominios de errores en el dominio de disponibilidad en el que colocar los nodos de trabajador.

          Opcionalmente, seleccione Opciones avanzadas para especificar un tipo de capacidad que utilizar (consulte Gestión de tipos de capacidad de nodo de trabajador). Si especifica una reserva de capacidad, tenga en cuenta que la unidad de nodo, el dominio de disponibilidad y el dominio de errores de la configuración de colocación del pool de nodos gestionado deben coincidir con el tipo de instancia, el dominio de disponibilidad y el dominio de errores de la reserva de capacidad, respectivamente. Consulte Uso de reservas de capacidad para aprovisionar nodos gestionados.

          De manera opcional, seleccione Agregar fila para seleccionar dominios y subredes adicionales donde colocar nodos de trabajador.

          Cuando se crean los nodos de trabajador, se distribuyen lo más equitativamente posible en los dominios de disponibilidad y los dominios de errores que seleccione. Si no selecciona ningún dominio de errores para un dominio de disponibilidad concreto, los nodos de trabajador se distribuyen lo más equitativamente posible en todos los dominios de errores de ese dominio de disponibilidad.

        • Unidad de nodo: una unidad diferente que se utilizará en los nodos de trabajador del pool de nodo. La unidad de computación determina el número de CPU y la cantidad de memoria asignada a cada nodo. Para cambiar la unidad, seleccione Cambiar unidad.

          Solo se muestran aquellas unidades de computación disponibles en el arrendamiento soportadas por Kubernetes Engine.

          Si selecciona una unidad flexible, puede especificar explícitamente el número de CPU y la cantidad de memoria.

          Consulte Imágenes soportadas (incluidas imágenes personalizadas) y unidades para nodos de trabajador.

        • Imagen: una imagen diferente que se utilizará en las nodos de trabajador del pool de nodo. Una imagen es una plantilla de una unidad de disco duro virtual que determina el sistema operativo y otro software para el nodo.

          Para cambiar la imagen, seleccione Cambiar imagen. En la ventana Examinar todas las imágenes, seleccione un origen de imagen y seleccione una imagen como se indica a continuación:

          • Imágenes de nodos de trabajador de OKE: se recomienda. Proporcionado por Oracle y basado en imágenes de plataforma. Las imágenes de OKE están optimizadas para servir como imágenes base para los nodos de trabajador, con todas las configuraciones necesarias y el software necesario. Seleccione una imagen de OKE si desea minimizar el tiempo que se tarda en aprovisionar nodos de trabajador en tiempo de ejecución en comparación con las imágenes de plataforma y las imágenes personalizadas.

            Los nombres de imagen de OKE incluyen el número de versión de la versión de Kubernetes que contienen. Tenga en cuenta que si especifica una versión de Kubernetes para el pool de nodos, la imagen de OKE que seleccione aquí debe tener el mismo número de versión que la versión de Kubernetes del pool de nodos.

          • Imágenes de plataforma: proporcionadas por Oracle y que solo contienen un sistema operativo Oracle Linux. Seleccione una imagen de plataforma si desea que Kubernetes Engine descargue, instale y configure el software necesario cuando la instancia informática que aloja un nodo de trabajador se inicie por primera vez.

          Consulte Imágenes soportadas (incluidas imágenes personalizadas) y unidades para nodos de trabajador.

        • Usar reglas de seguridad en el grupo de seguridad de red (NSG): controle el acceso al pool de nodos mediante reglas de seguridad definidas para uno o más grupos de seguridad de red (NSG) que especifique (hasta un máximo de cinco). Puede utilizar reglas de seguridad definidas para los NSG en lugar de las definidas para las listas de seguridad (se recomiendan los NSG). Para obtener más información sobre las reglas de seguridad que se deben especificar para el NSG, consulte Reglas de seguridad para los nodos de trabajador.
        • Volumen de inicio: cambie el tamaño y las opciones de cifrado del volumen de inicio del nodo de trabajador:

          • Para especificar un tamaño personalizado para el volumen en inicio, seleccione Especificar un tamaño del volumen en inicio personalizado e introduzca un tamaño personalizado de 50 GB a 32 TB. El tamaño especificado debe ser mayor que el tamaño de volumen de inicio por defecto para la imagen seleccionada. Consulte Tamaños de volumen de inicio personalizado para obtener más información.

            Tenga en cuenta que si aumenta el tamaño del volumen de inicio, también debe ampliar la partición del volumen de inicio (la partición raíz) para aprovechar el tamaño más grande. Consulte Ampliación de la partición para un volumen de inicio. Las imágenes de la plataforma Oracle Linux incluyen el paquete oci-utils. Puede utilizar el comando oci-growfs de ese paquete en un script cloud-init personalizado para ampliar la partición raíz y, a continuación, aumentar el sistema de archivos. Para obtener más información, consulte Ampliación de la partición raíz de nodos de trabajador.

          • Para la instancias de VM, opcionalmente puede seleccionar Usar cifrado en tránsito. Para las instancias dedicadas que soportan el cifrado en tránsito, se activa por defecto y no se puede configurar. Consulte Cifrado de volumen en bloque para obtener más información sobre el cifrado en tránsito. Si utiliza su propia clave de cifrado para el volumen de inicio, esta clave también se utiliza para el cifrado en tránsito. De lo contrario, se utiliza la clave de cifrado proporcionada por Oracle.
          • Los volúmenes de inicio se cifran por defecto, pero, opcionalmente, puede utilizar su propia clave del cifrado de servicio Vault para cifrar los datos en este volumen. Para utilizar el servicio de almacén para sus necesidades del cifrado, seleccione Cifre este volumen con una clave que gestione. Seleccione el compartimento de almacén y el almacén que contiene la clave de cifrado maestra que desea utilizar y, a continuación, seleccione el compartimento de clave de cifrado maestra y la clave de cifrado maestra. Si activa esta opción, esta clave se utiliza tanto para el cifrado de datos como para el cifrado en tránsito.
            Importante

            El servicio Block Volume no soporta el cifrado de volúmenes con claves cifradas mediante el algoritmo Rivest-Shamir-Adleman (RSA). Al utilizar sus propias claves, debe utilizar claves cifradas con el algoritmo Estándar de cifrado avanzado (AES). Esto se aplica a los volúmenes en bloque y los volúmenes de inicio.

          Tenga en cuenta que para utilizar su propia clave de cifrado del servicio Vault para cifrar los datos, una política de IAM debe otorgar acceso a la clave de cifrado del servicio. Consulte Create Policy to Access User-Managed Encryption Keys for Encrypting Boot Volumes, Block Volumes, and/or File Systems.

        • Comunicación de pod: cuando el tipo de red del cluster es red de pod nativo de VCN, cambie la forma en que los pods del pool de nodos se comunican entre sí mediante una subred de pod:
          • Compartimento de subred: compartimento en el que reside la subred del pod.
          • Subred: subred regional configurada para alojar pods. La subred de pod que especifique debe ser privada. En algunas situaciones, la subred del nodo de trabajador y la subred del pod pueden ser la misma subred (en cuyo caso, Oracle recomienda definir reglas de seguridad en los grupos de seguridad de red en lugar de en las listas de seguridad). Consulte Configuración de subred.
          • Usar reglas de seguridad en el grupo de seguridad de red (NSG): controle el acceso a la subred de pod mediante reglas de seguridad definidas para uno o más grupos de seguridad de red (NSG) que especifique (hasta un máximo de cinco). Puede utilizar reglas de seguridad definidas para los NSG en lugar de las definidas para las listas de seguridad (se recomiendan los NSG). Para obtener más información sobre las reglas de seguridad que se deben especificar para el NSG, consulte Reglas de seguridad para nodos y pods de trabajador.

          Opcionalmente, seleccione Opciones avanzadas para especificar el número máximo de pods que desea ejecutar en un único nodo de trabajador en un pool de nodos, hasta un límite de 110. El límite de 110 lo impone Kubernetes. Si desea más de 31 pods en un solo nodo de trabajador, la unidad que especifique para el pool de nodos debe admitir tres o más VNIC (una VNIC para conectarse a la subred del nodo de trabajador y al menos dos VNIC para conectarse a la subred del pod). Consulte Maximum Number of VNICs and Pods Supported by Different Shapes.

          Para obtener más información sobre la comunicación de pod, consulte Redes de pod.

      2. Seleccione Actualizar para guardar las propiedades actualizadas.
    5. (Opcional) En el caso de un pool de nodos virtuales y nodos virtuales, cambie las propiedades de la siguiente manera:

      1. En el menú Acciones, seleccione Editar y especifique:
        • Nombre: nombre diferente para el pool de nodos. Evite introducir información confidencial.
        • Recuento de nodos: el número de nodos virtuales que debe crearse en el pool de nodo virtual, situado en los dominios de disponibilidad que seleccione, y en la subred regional (recomendado) o en el subred específica de dominio que especifique para cada dominio del servicio. Consulte Escalado de pools de nodos.
        • Configuración de colocación de nodo:
          • Dominio de Disponibilidad: dominio de Disponibilidad en el que colocar nodos virtuales.
          • Dominios de errores: (opcional) uno o más dominios de errores en el dominio de disponibilidad en el que colocar los nodos virtuales.

          De manera opcional, seleccione Agregar fila para seleccionar más dominios en los que colocar los nodos virtuales.

          Cuando se crean los nodos virtuales, se distribuyen lo más equitativamente posible en los dominios de disponibilidad y los dominios de errores que seleccione. Si no selecciona ningún dominio de errores para un dominio de disponibilidad concreto, los nodos virtuales se distribuyen lo más equitativamente posible en todos los dominios de errores de ese dominio de disponibilidad.

        • Comunicación de nodo virtual:
          • Compartimento de subred: compartimento en el que reside la subred del nodo virtual.
          • Subred: subred regional diferente (recomendado) o subred específica del dominio de disponibilidad configurada para alojar nodos virtuales. Si especificó subredes del equilibrio de carga, las subredes del nodo virtual deben ser diferentes. Las subredes que especifique pueden ser privadas (recomendado) o públicas y pueden ser regionales (recomendado) o específicas de dominio de disponibilidad. Recomendamos que la subred de pod y la subred de nodo virtual sean la misma subred (en cuyo caso, la subred de nodo virtual debe ser privada). Para obtener más información, consulte Subnet Configuration.
          • Usar reglas de seguridad en el grupo de seguridad de red (NSG): controle el acceso a la subred del nodo virtual mediante reglas de seguridad definidas para uno o más grupos de seguridad de red (NSG) que especifique (hasta un máximo de cinco). Puede utilizar reglas de seguridad definidas para los NSG en lugar de las definidas para las listas de seguridad (se recomiendan los NSG). Para obtener más información sobre las reglas de seguridad que se deben especificar para el NSG, consulte Reglas de seguridad para nodos y pods de trabajador.
        • Comunicación con los pods:
          • Compartimento de subred: compartimento en el que reside la subred del pod.
          • Subred: subred regional diferente configurada para alojar pods. La subred de pod que especifique para los nodos virtuales debe ser privada. Recomendamos que la subred de pod y la subred de nodo virtual sean la misma subred (en cuyo caso, Oracle recomienda definir reglas de seguridad en los grupos de seguridad de red en lugar de en las listas de seguridad). Para obtener más información, consulte Subnet Configuration.
          • Usar reglas de seguridad en el grupo de seguridad de red (NSG): controle el acceso a la subred de pod mediante reglas de seguridad definidas para uno o más grupos de seguridad de red (NSG) que especifique (hasta un máximo de cinco). Puede utilizar reglas de seguridad definidas para los NSG en lugar de las definidas para las listas de seguridad (se recomiendan los NSG). Para obtener más información sobre las reglas de seguridad que se deben especificar para el NSG, consulte Reglas de seguridad para nodos y pods de trabajador.

          Para obtener más información sobre la comunicación de pod, consulte Redes de pod.

        • etiquetas de Kubernetes: (opcional) una o más etiquetas (además de una etiqueta por defecto) para agregar a los nodos virtuales en el pool del nodo virtual a fin del objetivo de permitir el targeting de cargas de trabajo en pools de nodo específicos. Para obtener más información, consulte Asignación de pods a nodos en la documentación de Kubernetes.
        • Contenido de Kubernetes: (opcional) uno o más elementos que se deben agregar a los nodos virtuales en el pool de nodos virtuales. Los contaminantes permiten que los nodos virtuales repelan los pods, por lo que deben asegurarse de que los pods no se ejecuten en nodos virtuales en un pool de nodos virtuales concreto. Puede aplicar los mantos solo a los nodos virtuales. Para obtener más información, consulte Asignación de pods a nodos en la documentación de Kubernetes.
      2. Seleccione Actualizar para guardar las propiedades actualizadas.
    6. Para los pools de nodos gestionados, utilice el separador Etiquetas de Kubernetes para ver las etiquetas aplicadas a los nodos gestionados. Para los pools de nodos virtuales, utilice el separador Etiquetas y manchas de Kubernetes para ver tanto las etiquetas como las manchas aplicadas a los nodos virtuales.
    7. Utilice el separador Nodos para ver información sobre nodos del trabajador específicos en un pool de nodo gestionado. Si lo desea, puede editar los detalles de configuración de un nodo del trabajador específico seleccionando el nombre del nodo del trabajador.
    8. Utilice el separador Nodos virtuales para ver información sobre nodos del trabajador específicos en un pool de nodo virtual.
    9. Utilice el separador Supervisión para supervisar el estado, la capacidad y el rendimiento de un pool de nodos gestionado. Para obtener más información, consulte Métricas de Kubernetes Engine (OKE).
    10. Utilice el separador Solicitudes de trabajo:
      • Obtenga los detalles de una solicitud de trabajo concreta para el recurso del pool de nodos.
      • Muestre las solicitudes de trabajo para el recurso del pool de nodos.

      Para obtener más información, consulte Visualización de solicitudes de trabajo.

    11. Utilice el separador Etiquetas para agregar o modificar etiquetas aplicadas al pool de nodos (y, en el caso de un pool de nodos gestionado, etiquetas aplicadas a instancias informáticas que alojan nodos gestionados en el pool de nodos). El etiquetado permite agrupar recursos dispares en compartimentos y, además, permite anotar recursos con sus propios metadatos. Consulte Etiquetado de recursos relacionados en clusters de Kubernetes.
  • Utilice el comando oci ce node-pool update y los parámetros necesarios para actualizar un pool de nodos gestionado:

    oci ce node-pool update --node-pool-id <node-pool-ocid> [OPTIONS]

    Para obtener una lista completa de parámetros y valores para los comandos de la CLI, consulte la Referencia de comandos de la CLI.

  • Ejecute la operación UpdateNodePool para actualizar un pool de nodos gestionado.