Argumentos de configuración de complemento de cluster

Descubra los argumentos de configuración que puede transferir a los complementos del cluster.

Al activar un complemento de cluster, puede especificar uno o más pares clave/valor para su transferencia como argumentos al complemento de cluster.

argumentos de configuración del complemento kube-proxy

Al activar el complemento de cluster kube-proxy, puede transferir los siguientes pares clave/valor como argumentos:

Clave (API y CLI) Nombre mostrado de la clave (consola) Descripción Necesario/Opcional Valor por defecto Valor de ejemplo
afinidad afinidad

Grupo de reglas de programación de afinidad.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo
customizeKubeProxyConfigMap personalizar kube-proxy configMap

Si desea que Oracle gestione el proxy de Kube automáticamente, defina customizeKubeProxyConfigMap en false (valor por defecto).

Si desea personalizar el comportamiento del proxy de Kube, establezca customizeKubeProxyConfigMap en true y cree un proxy de kube configMap en el espacio de nombres de kube-system.

necesario false true
nodeSelectors selectores de nodos

Puede utilizar selectores de nodos y etiquetas de nodos para controlar los nodos de trabajador en los que se ejecutan los pods complementarios.

Para que un pod se ejecute en un nodo, el selector de nodos del pod debe tener la misma clave/valor que la etiqueta del nodo.

Defina nodeSelectors en un par clave/valor que coincida con el selector de nodos del pod y la etiqueta del nodo de trabajador.

Formato JSON.

Opcional Nulo {"foo":"bar", "foo2": "bar2"}

El pod solo se ejecutará en nodos que tengan la etiqueta foo=bar o foo2=bar2.

rollingUpdate rollingUpdate

Controla el comportamiento deseado de la actualización sucesiva mediante maxSurge y maxUnavailable.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo
tolerancias tolerancias

Puede utilizar marcas y tolerancias para controlar los nodos de trabajador en los que se ejecutan los pods complementarios.

Para que un pod se ejecute en un nodo que tenga un color, el pod debe tener una tolerancia correspondiente.

Defina tolerancias en un par clave/valor que coincida con la tolerancia del pod y con la mancha del nodo de trabajador.

Formato JSON.

Opcional Nulo [{"key":"tolerationKeyFoo", "value":"tolerationValBar", "effect":"noSchedule", "operator":"exists"}]

Solo los pods que tienen esta tolerancia se pueden ejecutar en nodos de trabajador que tienen la mancha tolerationKeyFoo=tolerationValBar:noSchedule.

topologySpreadConstraints topologySpreadConstraints

Cómo difundir pods coincidentes entre la topología determinada.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo

CoreDNS argumentos de configuración de complemento

Al activar el complemento de cluster CoreDNS, puede transferir los siguientes pares clave/valor como argumentos:

Clave (API y CLI) Nombre mostrado de la clave (consola) Descripción Necesario/Opcional Valor por defecto Valor de ejemplo
afinidad afinidad

Grupo de reglas de programación de afinidad.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo
coreDnsContainerResources CoreDNS recursos de contenedor

Puede especificar las cantidades de recursos que solicitan los contenedores CoreDNS y definir límites de uso de recursos que los contenedores CoreDNS no pueden superar.

Formato JSON.

Opcional Nulo {"limits": {"cpu": "500m", "memory": "200Mi" }, "requests": {"cpu": "100m", "memory": "100Mi"}}

Cree contenedores CoreDNS que soliciten 100 mililicores de CPU y 100 mebibytes de memoria. Limite los contenedores CoreDNS a 500 mililicores de CPU y 200 mebibytes de memoria.

customizeCoreDNSConfigMap personalizar CoreDNS configMap

Si desea que Oracle gestione CoreDNS automáticamente, defina customizeCoreDNSConfigMap en false (valor por defecto).

Si desea personalizar el comportamiento de CoreDNS, defina customizeCoreDNSConfigMap en true y cree una cadena configMap en el espacio de nombres kube-system.

necesario false true
minReplica réplica mínima

Número mínimo de réplicas del despliegue CoreDNS.

necesario 1

Crea un total de un pod en el cluster.

2

Crea un total de dos pods en el cluster.

nodeSelectors selectores de nodos

Puede utilizar selectores de nodos y etiquetas de nodos para controlar los nodos de trabajador en los que se ejecutan los pods complementarios.

Para que un pod se ejecute en un nodo, el selector de nodos del pod debe tener la misma clave/valor que la etiqueta del nodo.

Defina nodeSelectors en un par clave/valor que coincida con el selector de nodos del pod y la etiqueta del nodo de trabajador.

Formato JSON.

Opcional Nulo {"foo":"bar", "foo2": "bar2"}

El pod solo se ejecutará en nodos que tengan la etiqueta foo=bar o foo2=bar2.

nodesPerReplica nodos por réplica

Número de réplicas CoreDNS por nodo de cluster.

necesario 1

Crea una réplica en cada nodo.

2

Crea una réplica en cada segundo nodo.

rollingUpdate rollingUpdate

Controla el comportamiento deseado de la actualización sucesiva mediante maxSurge y maxUnavailable.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo
tolerancias tolerancias

Puede utilizar marcas y tolerancias para controlar los nodos de trabajador en los que se ejecutan los pods complementarios.

Para que un pod se ejecute en un nodo que tenga un color, el pod debe tener una tolerancia correspondiente.

Defina tolerancias en un par clave/valor que coincida con la tolerancia del pod y con la mancha del nodo de trabajador.

Formato JSON.

Opcional Nulo [{"key":"tolerationKeyFoo", "value":"tolerationValBar", "effect":"noSchedule", "operator":"exists"}]

Solo los pods que tienen esta tolerancia se pueden ejecutar en nodos de trabajador que tienen la mancha tolerationKeyFoo=tolerationValBar:noSchedule.

topologySpreadConstraints topologySpreadConstraints

Cómo difundir pods coincidentes entre la topología determinada.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo

Argumentos de configuración del complemento del plugin de CNI de red de pods nativos de VCN de OCI

Al activar el complemento de cluster de plugin CNI de red de pod nativo de VCN de OCI, puede transferir los siguientes pares de clave/valor como argumentos:

Clave (API y CLI) Nombre mostrado de la clave (consola) Descripción Necesario/Opcional Valor por defecto Valor de ejemplo
afinidad afinidad

Grupo de reglas de programación de afinidad.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo
nodeSelectors selectores de nodos

Puede utilizar selectores de nodos y etiquetas de nodos para controlar los nodos de trabajador en los que se ejecutan los pods complementarios.

Para que un pod se ejecute en un nodo, el selector de nodos del pod debe tener la misma clave/valor que la etiqueta del nodo.

Defina nodeSelectors en un par clave/valor que coincida con el selector de nodos del pod y la etiqueta del nodo de trabajador.

Formato JSON.

Opcional Nulo {"foo":"bar", "foo2": "bar2"}

El pod solo se ejecutará en nodos que tengan la etiqueta foo=bar o foo2=bar2.

rollingUpdate rollingUpdate

Controla el comportamiento deseado de la actualización sucesiva mediante maxSurge y maxUnavailable.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo
tolerancias tolerancias

Puede utilizar marcas y tolerancias para controlar los nodos de trabajador en los que se ejecutan los pods complementarios.

Para que un pod se ejecute en un nodo que tenga un color, el pod debe tener una tolerancia correspondiente.

Defina tolerancias en un par clave/valor que coincida con la tolerancia del pod y con la mancha del nodo de trabajador.

Formato JSON.

Opcional Nulo [{"key":"tolerationKeyFoo", "value":"tolerationValBar", "effect":"noSchedule", "operator":"exists"}]

Solo los pods que tienen esta tolerancia se pueden ejecutar en nodos de trabajador que tienen la mancha tolerationKeyFoo=tolerationValBar:noSchedule.

topologySpreadConstraints topologySpreadConstraints

Cómo difundir pods coincidentes entre la topología determinada.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo

argumentos de configuración de complemento de canal

Al activar el complemento de cluster de plugin CNI de canal, puede transferir los siguientes pares de clave/valor como argumentos:

Clave (API y CLI) Nombre mostrado de la clave (consola) Descripción Necesario/Opcional Valor por defecto Valor de ejemplo
afinidad afinidad

Grupo de reglas de programación de afinidad.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo
nodeSelectors selectores de nodos

Puede utilizar selectores de nodos y etiquetas de nodos para controlar los nodos de trabajador en los que se ejecutan los pods complementarios.

Para que un pod se ejecute en un nodo, el selector de nodos del pod debe tener la misma clave/valor que la etiqueta del nodo.

Defina nodeSelectors en un par clave/valor que coincida con el selector de nodos del pod y la etiqueta del nodo de trabajador.

Formato JSON.

Opcional Nulo {"foo":"bar", "foo2": "bar2"}

El pod solo se ejecutará en nodos que tengan la etiqueta foo=bar o foo2=bar2.

rollingUpdate rollingUpdate

Controla el comportamiento deseado de la actualización sucesiva mediante maxSurge y maxUnavailable.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo
tolerancias tolerancias

Puede utilizar marcas y tolerancias para controlar los nodos de trabajador en los que se ejecutan los pods complementarios.

Para que un pod se ejecute en un nodo que tenga un color, el pod debe tener una tolerancia correspondiente.

Defina tolerancias en un par clave/valor que coincida con la tolerancia del pod y con la mancha del nodo de trabajador.

Formato JSON.

Opcional Nulo [{"key":"tolerationKeyFoo", "value":"tolerationValBar", "effect":"noSchedule", "operator":"exists"}]

Solo los pods que tienen esta tolerancia se pueden ejecutar en nodos de trabajador que tienen la mancha tolerationKeyFoo=tolerationValBar:noSchedule.

topologySpreadConstraints topologySpreadConstraints

Cómo difundir pods coincidentes entre la topología determinada.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo

Argumentos de configuración del complemento del panel de control de Kubernetes

Al activar el complemento de cluster del panel de control de Kubernetes, puede transferir los siguientes pares clave/valor como argumentos:

Clave (API y CLI) Nombre mostrado de la clave (consola) Descripción Necesario/Opcional Valor por defecto Valor de ejemplo
afinidad afinidad

Grupo de reglas de programación de afinidad.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo
nodeSelectors selectores de nodos

Puede utilizar selectores de nodos y etiquetas de nodos para controlar los nodos de trabajador en los que se ejecutan los pods.

Para que un pod se ejecute en un nodo, el selector de nodos del pod debe tener la misma clave/valor que la etiqueta del nodo.

Defina nodeSelectors en un par clave/valor que coincida con el selector de nodos del pod y la etiqueta del nodo de trabajador.

Formato JSON.

Opcional Nulo {"foo":"bar", "foo2": "bar2"}

El pod solo se ejecutará en nodos que tengan la etiqueta foo=bar o foo2=bar2.

numOfReplicas numOfReplicas Número de réplicas del despliegue del panel de control de Kubernetes. necesario 1

Crea una réplica del despliegue del complemento por cluster.

2

Crea dos réplicas del despliegue del complemento por cluster.

rollingUpdate rollingUpdate

Controla el comportamiento deseado de la actualización sucesiva mediante maxSurge y maxUnavailable.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo
tolerancias tolerancias

Puede utilizar marcas y tolerancias para controlar los nodos de trabajador en los que se ejecutan los pods.

Para que un pod se ejecute en un nodo que tenga un color, el pod debe tener una tolerancia correspondiente.

Defina tolerancias en un par clave/valor que coincida con la tolerancia del pod y con la mancha del nodo de trabajador.

Formato JSON.

Opcional Nulo [{"key":"tolerationKeyFoo", "value":"tolerationValBar", "effect":"noSchedule", "operator":"exists"}]

Solo los pods que tienen esta tolerancia se pueden ejecutar en nodos de trabajador que tienen la mancha tolerationKeyFoo=tolerationValBar:noSchedule.

topologySpreadConstraints topologySpreadConstraints

Cómo difundir pods coincidentes entre la topología determinada.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo

Argumentos de configuración del complemento de Tiller (no recomendado)

Al activar el complemento de cluster de Tiller, puede transferir los siguientes pares de clave/valor como argumentos.

Tenga en cuenta que Tiller se eliminó de Helm en la versión 3 (y versiones posteriores) debido a riesgos de seguridad conocidos. Debido a esos riesgos de seguridad, le recomendamos encarecidamente que no despliegue Tiller en clusters de producción. Por el mismo motivo, el complemento de Tiller no se muestra en la consola. Si decide que desea desplegar el complemento de Tiller a pesar de los riesgos de seguridad, utilice la CLI o la API de OCI.

Clave (API y CLI) Nombre mostrado de la clave (consola) Descripción Necesario/Opcional Valor por defecto Valor de ejemplo
afinidad afinidad

Grupo de reglas de programación de afinidad.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo
nodeSelectors selectores de nodos

Puede utilizar selectores de nodos y etiquetas de nodos para controlar los nodos de trabajador en los que se ejecutan los pods.

Para que un pod se ejecute en un nodo, el selector de nodos del pod debe tener la misma clave/valor que la etiqueta del nodo.

Defina nodeSelectors en un par clave/valor que coincida con el selector de nodos del pod y la etiqueta del nodo de trabajador.

Formato JSON.

Opcional Nulo {"foo":"bar", "foo2": "bar2"}

El pod solo se ejecutará en nodos que tengan la etiqueta foo=bar o foo2=bar2.

rollingUpdate rollingUpdate

Controla el comportamiento deseado de la actualización sucesiva mediante maxSurge y maxUnavailable.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo
tolerancias tolerancias

Puede utilizar marcas y tolerancias para controlar los nodos de trabajador en los que se ejecutan los pods.

Para que un pod se ejecute en un nodo que tenga un color, el pod debe tener una tolerancia correspondiente.

Defina tolerancias en un par clave/valor que coincida con la tolerancia del pod y con la mancha del nodo de trabajador.

Formato JSON.

Opcional Nulo [{"key":"tolerationKeyFoo", "value":"tolerationValBar", "effect":"noSchedule", "operator":"exists"}]

Solo los pods que tienen esta tolerancia se pueden ejecutar en nodos de trabajador que tienen la mancha tolerationKeyFoo=tolerationValBar:noSchedule.

topologySpreadConstraints topologySpreadConstraints

Cómo difundir pods coincidentes entre la topología determinada.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo

Argumentos de configuración del complemento de Oracle Database Operator for Kubernetes

Al activar el complemento de cluster de Oracle Database Operator for Kubernetes, puede transferir los siguientes pares de clave/valor como argumentos:

Clave (API y CLI) Nombre mostrado de la clave (consola) Descripción Necesario/Opcional Valor por defecto Valor de ejemplo
afinidad afinidad

Grupo de reglas de programación de afinidad.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo
nodeSelectors selectores de nodos

Puede utilizar selectores de nodos y etiquetas de nodos para controlar los nodos de trabajador en los que se ejecutan los pods.

Para que un pod se ejecute en un nodo, el selector de nodos del pod debe tener la misma clave/valor que la etiqueta del nodo.

Defina nodeSelectors en un par clave/valor que coincida con el selector de nodos del pod y la etiqueta del nodo de trabajador.

Formato JSON.

Opcional Nulo {"foo":"bar", "foo2": "bar2"}

El pod solo se ejecutará en nodos que tengan la etiqueta foo=bar o foo2=bar2.

numOfReplicas numOfReplicas Número de réplicas del despliegue del operador de base de datos. necesario 1

Crea una réplica del despliegue del complemento por cluster.

2

Crea dos réplicas del despliegue del complemento por cluster.

rollingUpdate rollingUpdate

Controla el comportamiento deseado de la actualización sucesiva mediante maxSurge y maxUnavailable.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo
tolerancias tolerancias

Puede utilizar marcas y tolerancias para controlar los nodos de trabajador en los que se ejecutan los pods.

Para que un pod se ejecute en un nodo que tenga un color, el pod debe tener una tolerancia correspondiente.

Defina tolerancias en un par clave/valor que coincida con la tolerancia del pod y con la mancha del nodo de trabajador.

Formato JSON.

Opcional Nulo [{"key":"tolerationKeyFoo", "value":"tolerationValBar", "effect":"noSchedule", "operator":"exists"}]

Solo los pods que tienen esta tolerancia se pueden ejecutar en nodos de trabajador que tienen la mancha tolerationKeyFoo=tolerationValBar:noSchedule.

topologySpreadConstraints topologySpreadConstraints

Cómo difundir pods coincidentes entre la topología determinada.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo

WebLogic Argumentos de configuración del complemento del operador de Kubernetes

Al activar el complemento de cluster de operador de Kubernetes WebLogic, puede transferir los siguientes pares de clave/valor como argumentos:

Clave (API y CLI) Nombre mostrado de la clave (consola) Descripción Necesario/Opcional Valor por defecto Valor de ejemplo
afinidad afinidad

Grupo de reglas de programación de afinidad.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo
nodeSelectors selectores de nodos

Puede utilizar selectores de nodos y etiquetas de nodos para controlar los nodos de trabajador en los que se ejecutan los pods.

Para que un pod se ejecute en un nodo, el selector de nodos del pod debe tener la misma clave/valor que la etiqueta del nodo.

Defina nodeSelectors en un par clave/valor que coincida con el selector de nodos del pod y la etiqueta del nodo de trabajador.

Formato JSON.

Opcional Nulo {"foo":"bar", "foo2": "bar2"}

El pod solo se ejecutará en nodos que tengan la etiqueta foo=bar o foo2=bar2.

numOfReplicas numOfReplicas Número de réplicas del despliegue del operador de Weblogic. necesario 1

Crea una réplica del despliegue del complemento por cluster.

2

Crea dos réplicas del despliegue del complemento por cluster.

rollingUpdate rollingUpdate

Controla el comportamiento deseado de la actualización sucesiva mediante maxSurge y maxUnavailable.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo
tolerancias tolerancias

Puede utilizar marcas y tolerancias para controlar los nodos de trabajador en los que se ejecutan los pods.

Para que un pod se ejecute en un nodo que tenga un color, el pod debe tener una tolerancia correspondiente.

Defina tolerancias en un par clave/valor que coincida con la tolerancia del pod y con la mancha del nodo de trabajador.

Formato JSON.

Opcional Nulo [{"key":"tolerationKeyFoo", "value":"tolerationValBar", "effect":"noSchedule", "operator":"exists"}]

Solo los pods que tienen esta tolerancia se pueden ejecutar en nodos de trabajador que tienen la mancha tolerationKeyFoo=tolerationValBar:noSchedule.

topologySpreadConstraints topologySpreadConstraints

Cómo difundir pods coincidentes entre la topología determinada.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo

Argumentos de configuración del complemento Certificate Manager

Al activar el complemento de cluster de Certificate Manager, puede transferir los siguientes pares clave/valor como argumentos:

Clave (API y CLI) Nombre mostrado de la clave (consola) Descripción Necesario/Opcional Valor por defecto Valor de ejemplo
afinidad afinidad

Grupo de reglas de programación de afinidad.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo
nodeSelectors selectores de nodos

Puede utilizar selectores de nodos y etiquetas de nodos para controlar los nodos de trabajador en los que se ejecutan los pods.

Para que un pod se ejecute en un nodo, el selector de nodos del pod debe tener la misma clave/valor que la etiqueta del nodo.

Defina nodeSelectors en un par clave/valor que coincida con el selector de nodos del pod y la etiqueta del nodo de trabajador.

Formato JSON.

Opcional Nulo {"foo":"bar", "foo2": "bar2"}

El pod solo se ejecutará en nodos que tengan la etiqueta foo=bar o foo2=bar2.

numOfReplicas numOfReplicas Número de réplicas del despliegue del gestor de certificados. necesario 1

Crea una réplica del despliegue del complemento por cluster.

2

Crea dos réplicas del despliegue del complemento por cluster.

rollingUpdate rollingUpdate

Controla el comportamiento deseado de la actualización sucesiva mediante maxSurge y maxUnavailable.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo
tolerancias tolerancias

Puede utilizar marcas y tolerancias para controlar los nodos de trabajador en los que se ejecutan los pods.

Para que un pod se ejecute en un nodo que tenga un color, el pod debe tener una tolerancia correspondiente.

Defina tolerancias en un par clave/valor que coincida con la tolerancia del pod y con la mancha del nodo de trabajador.

Formato JSON.

Opcional Nulo [{"key":"tolerationKeyFoo", "value":"tolerationValBar", "effect":"noSchedule", "operator":"exists"}]

Solo los pods que tienen esta tolerancia se pueden ejecutar en nodos de trabajador que tienen la mancha tolerationKeyFoo=tolerationValBar:noSchedule.

topologySpreadConstraints topologySpreadConstraints

Cómo difundir pods coincidentes entre la topología determinada.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo

Argumentos de configuración de complemento de escala automática de cluster

Al activar el complemento de escala automática del cluster, puede transferir los siguientes pares clave/valor como argumentos:

Argumentos de configuración utilizados habitualmente

Clave (API y CLI) Nombre mostrado de la clave (consola) Descripción Necesario/Opcional Valor por defecto Valor de ejemplo
afinidad afinidad

Grupo de reglas de programación de afinidad.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo
numOfReplicas numOfReplicas Número de réplicas del despliegue del complemento de escala automática del cluster. necesario 1

Crea una réplica del despliegue del complemento por cluster.

2

Crea dos réplicas del despliegue del complemento por cluster.

nodeSelectors selectores de nodos

Puede utilizar selectores de nodos y etiquetas de nodos para controlar los nodos de trabajador en los que se ejecutan los pods.

Para que un pod se ejecute en un nodo, el selector de nodos del pod debe tener la misma clave/valor que la etiqueta del nodo.

Defina nodeSelectors en un par clave/valor que coincida con el selector de nodos del pod y la etiqueta del nodo de trabajador.

Formato JSON.

Opcional Nulo {"foo":"bar", "foo2": "bar2"}

El pod solo se ejecutará en nodos que tengan la etiqueta foo=bar o foo2=bar2.

rollingUpdate rollingUpdate

Controla el comportamiento deseado de la actualización sucesiva mediante maxSurge y maxUnavailable.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo
tolerancias tolerancias

Puede utilizar marcas y tolerancias para controlar los nodos de trabajador en los que se ejecutan los pods.

Para que un pod se ejecute en un nodo que tenga un color, el pod debe tener una tolerancia correspondiente.

Defina tolerancias en un par clave/valor que coincida con la tolerancia del pod y con la mancha del nodo de trabajador.

Formato JSON.

Opcional Nulo [{"key":"tolerationKeyFoo", "value":"tolerationValBar", "effect":"noSchedule", "operator":"exists"}]

Solo los pods que tienen esta tolerancia se pueden ejecutar en nodos de trabajador que tienen la mancha tolerationKeyFoo=tolerationValBar:noSchedule.

topologySpreadConstraints topologySpreadConstraints

Cómo difundir pods coincidentes entre la topología determinada.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo

Otros argumentos de configuración

Clave (API y CLI) Nombre mostrado de la clave (consola) Descripción Necesario/Opcional Valor por defecto
anotaciones anotaciones

Anotaciones para transferir al despliegue de la escala automática del cluster.

Por ejemplo, "{\"prometheus.io/scrape\":\"true\",\"prometheus.io/port\":\"8086\"}"

Formato JSON.

Opcional ""
authType authType El tipo de autenticación que utiliza la escala automática del cluster al realizar solicitudes, como una de las siguientes:
  • instance especifica el principal de instancia
  • workload especifica la identidad de carga de trabajo
necesario instancia
balanceSimilarNodeGroups balanceSimilarNodeGroups Detecte grupos de nodos similares y equilibre el número de nodos entre ellos. Opcional false
balancingIgnoreLabel balancingIgnoreLabel Defina una etiqueta de nodo que se debe ignorar al considerar la similitud de grupos de nodos. Una etiqueta por incidencia de indicador. El formato es label1, label2. Opcional ""
balancingLabel balancingLabel Defina una etiqueta de nodo que utilizar al comparar la similitud de grupos de nodos. Si se define, el resto de la lógica de comparación se desactiva y solo se tienen en cuenta las etiquetas al comparar grupos. Una etiqueta por incidencia de indicador. El formato es label1, label2. Opcional ""
cordonNodeBeforeTerminating (No se muestra en la consola) Debe haber nodos de cable de CA antes de terminar durante el proceso de reducción de escala. Opcional false
coresTotal (No se muestra en la consola) Número mínimo y máximo de núcleos en cluster, con el formato <min>:<max>. La escala automática del cluster no ampliará el cluster más allá de estos números. Opcional 0:320.000
daemonsetEvictionForEmptyNodes (No se muestra en la consola) Si los pods DaemonSet se terminarán de forma controlada desde nodos vacíos. Opcional false
daemonsetEvictionForOccupiedNodes (No se muestra en la consola) Si los pods DaemonSet se terminarán de forma controlada desde nodos que no estén vacíos. Opcional verdadero
debuggingSnapshotEnabled (No se muestra en la consola) Si la instantánea de depuración de la función de escala automática del cluster está activada. Opcional false
emitPerNodegroupMetrics (No se muestra en la consola) Si es true, emita métricas por grupo de nodos. Opcional false
enforceNodeGroupMinSize (No se muestra en la consola) Si es necesario, CA debe escalar verticalmente el grupo de nodos al tamaño mínimo configurado. Opcional false
estimador (No se muestra en la consola) Tipo de estimador de recursos que se utilizará en la ampliación. Opcional embalaje
expansor expansor Tipo de expansor de grupo de nodos que se va a utilizar en la ampliación.

Tenga en cuenta que expander=price no está soportado.

Opcional aleatorio
expendablePodsPriorityCutoff (No se muestra en la consola) Los pods con prioridad por debajo del punto de corte serán prescindibles. Pueden ser asesinados sin ninguna consideración durante la reducción y no causan la ampliación. Los pods con prioridad nula (PodPriority desactivado) no son fungibles. Opcional -10
ignoreDaemonsetsUtilization (No se muestra en la consola) Si los pods DaemonSet se ignorarán al calcular el uso de recursos para la reducción. Opcional false
ignoreMirrorPodsUtilization (No se muestra en la consola) Si se ignorarán los pods duplicados al calcular la utilización de recursos para la reducción. Opcional false
leaderElect (No se muestra en la consola) Iniciar un cliente de elección de líderes y ganar liderazgo antes de ejecutar el bucle principal. Active esta opción al ejecutar componentes replicados para una alta disponibilidad. Opcional verdadero
leaderElectLeaseDuration (No se muestra en la consola) La duración que los candidatos no líderes esperarán después de observar una renovación de liderazgo hasta que intenten adquirir el liderazgo de un puesto líder liderado pero no renovado. Esta es efectivamente la duración máxima que un líder puede ser detenido antes de ser reemplazado por otro candidato. Esto solo es aplicable si está activada la elección de líder. Opcional 15s
leaderElectRenewDeadline (No se muestra en la consola) Intervalo entre intentos del escalador automático de cluster activo para renovar un espacio de liderazgo antes de dejar de liderar. Debe ser menor o igual que la duración del leasing. Esto solo es aplicable si está activada la elección de líder. Opcional 10s
leaderElectResourceLock (No se muestra en la consola) Tipo de objeto de recurso que se utiliza para el bloqueo durante la elección de líder. Las opciones soportadas son leases (valor por defecto), endpoints, endpointsleases, configmaps y configmapsleases. Opcional concesiones
leaderElectRetryPeriod (No se muestra en la consola) Duración que los clientes deben esperar entre el intento de adquisición y la renovación de un liderazgo. Esto solo es aplicable si está activada la elección de líder. Opcional 2s
maxAutoprovisionedNodeGroupCount (No se muestra en la consola) Número máximo de grupos aprovisionados automáticamente en el cluster. Opcional 15
maxEmptyBulkDelete maxEmptyBulkDelete Número máximo de nodos vacíos que se pueden suprimir al mismo tiempo. Opcional 10
maxFailingTime (No se muestra en la consola) Tiempo máximo desde la última ejecución correcta del escalador automático registrada antes del reinicio automático. Opcional 15m
maxGracefulTerminationSec (No se muestra en la consola) Número máximo de segundos que CA espera la terminación de pod al intentar reducir verticalmente un nodo. Opcional 600
maxInactivity (No se muestra en la consola) Tiempo máximo desde la última actividad de escala automática registrada antes del reinicio automático. Opcional 10m
maxNodeProvisionTime maxNodeProvisionTime Tiempo máximo que CA espera a que se aprovisione el nodo. Opcional 15m
maxNodesTotal (No se muestra en la consola) Número máximo de nodos en todos los pools de nodos. La escala automática del cluster no ampliará el cluster más allá de este número. Opcional 0
maxTotalUnreadyPercentage (No se muestra en la consola) Porcentaje máximo de nodos no listos en el cluster. Una vez superado esto, CA detiene las operaciones. Opcional 45
memoryTotal (No se muestra en la consola) Número mínimo y máximo de gigabytes de memoria en el cluster, con el formato <min>:<max>. La escala automática del cluster no ampliará el cluster más allá de estos números. Opcional 0:6.400.000
minReplicaCount (No se muestra en la consola) Número mínimo o réplicas que debe tener un juego de réplicas o un controlador de replicación para permitir la supresión de pods en una reducción vertical. Opcional 0
nodos nodos

Lista de número mínimo de nodos, número máximo de nodos y el OCID del pool de nodos que gestionará la escala automática del cluster.

El formato es <min>:<max>:<node-pool1-ocid>, <min>:<max>:<node-pool2-ocid>.

Formato JSON.

necesario ""
okTotalUnreadyCount (No se muestra en la consola) Número de nodos no listos permitidos, independientemente del porcentaje máximo total no listo. Opcional 3
recordDuplicatedEvents (No se muestra en la consola) Active la escala automática para imprimir eventos duplicados en una ventana de 5 minutos. Opcional false
scaleDownCandidatesPoolMinCount (No se muestra en la consola)

Número mínimo de nodos que se consideran candidatos adicionales no vacíos para reducir verticalmente cuando algunos candidatos de la iteración anterior ya no son válidos. Al calcular el tamaño del grupo de candidatos adicionales que tomamos.

max(#nodes * scale-down-candidates-pool-ratio,
              scale-down-candidates-pool-min-count)
necesario 50
scaleDownCandidatesPoolRatio (No se muestra en la consola) Ratio de nodos que se consideran candidatos adicionales no vacíos para reducir verticalmente cuando algunos candidatos de iteración anterior ya no son válidos. Un valor más bajo significa una mejor capacidad de respuesta de CA, pero una posible latencia de reducción más lenta. Un valor superior puede afectar al rendimiento de CA con clusters grandes (cientos de nodos). Establézcalo en 1.0 para desactivar esta heurística: CA tomará todos los nodos como candidatos adicionales. necesario 0,1
scaleDownDelayAfterAdd scaleDownDelayAfterAdd Cuánto tiempo después de escalar verticalmente se reanuda esa evaluación de reducción vertical. necesario 10m
scaleDownDelayAfterDelete (No se muestra en la consola) Cuánto tiempo después de que se reanude la supresión del nodo que reduce verticalmente la evaluación, el valor predeterminado es el intervalo de exploración. necesario 10s
scaleDownDelayAfterFailure (No se muestra en la consola) Tiempo que se reanuda la evaluación después de reducir el fallo que reduce la escala. necesario 3m
scaleDownEnabled scaleDownEnabled Debe CA reducir verticalmente el cluster. Opcional verdadero
scaleDownNonEmptyCandidatesCount (No se muestra en la consola) Número máximo de nodos no vacíos considerados en una iteración como candidatos para reducir con drenaje. Un valor más bajo significa una mejor capacidad de respuesta de CA, pero una posible latencia de reducción más lenta. Un valor superior puede afectar al rendimiento de CA con clusters grandes (cientos de nodos). Establézcalo en un valor no positivo para desactivar esta heurística: CA no limitará el número de nodos que considera. necesario 30
scaleDownUnneededTime scaleDownUnneededTime El tiempo que un nodo debe permanecer innecesario antes de que sea elegible para la reducción vertical. necesario 10m
scaleDownUnreadyTime (No se muestra en la consola) Tiempo durante el cual un nodo no preparado debe ser innecesario antes de ser elegible para la reducción vertical. necesario 20m
scaleDownUtilizationThreshold (No se muestra en la consola) Nivel de utilización de nodos, definido como la suma de los recursos solicitados dividida por la capacidad, por debajo de la cual se puede considerar un nodo para reducir verticalmente. necesario 0,5
scanInterval scanInterval Con qué frecuencia se vuelve a evaluar el cluster para escalar o reducir verticalmente. Opcional 10s
skipNodesWithCustomControllerPods (No se muestra en la consola) Si se define en true, la escala automática del cluster nunca suprimirá nodos con pods propiedad de controladores personalizados. Opcional verdadero
skipNodesWithLocalStorage (No se muestra en la consola) Si se define en true, la escala automática del cluster nunca suprimirá nodos con pods con almacenamiento local, por ejemplo, EmptyDir o HostPath. Opcional verdadero
skipNodesWithSystemPods (No se muestra en la consola) Si se define en true, la escala automática del cluster nunca suprimirá nodos con pods de kube-system (excepto para DaemonSet o pods duplicados). Opcional verdadero
statusConfigMapName (No se muestra en la consola) Nombre del estado ConfigMap que escribe CA. Opcional estado de la escala automática del cluster
umbral stderr (No se muestra en la consola) Umbral de gravedad de log, más allá del cual los logs se envían a stderr. Por ejemplo, si se define en error, todos los logs con una gravedad superior a error se envían a stderr. Opcional información
unremovableNodeRecheckTimeout unremovableNodeRecheckTimeout Timeout antes de volver a comprobar un nodo que no se ha podido eliminar antes. necesario 5m
v (No se muestra en la consola) Número del nivel de detalle del registro. Opcional 0
writeStatusConfigmap (No se muestra en la consola) Debe CA escribir información de estado en un mapa de configuración. Opcional verdadero

Argumentos de configuración de complemento de Istio

Al activar el complemento de cluster Istio, puede transferir los siguientes pares clave/valor como argumentos:

Argumentos de configuración utilizados habitualmente

Clave (API y CLI) Nombre mostrado de la clave (consola) Descripción Necesario/Opcional Valor por defecto Valor de ejemplo
afinidad afinidad

Grupo de reglas de programación de afinidad.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo
nodeSelectors selectores de nodos

Puede utilizar selectores de nodos y etiquetas de nodos para controlar los nodos de trabajador en los que se ejecutan los pods.

Para que un pod se ejecute en un nodo, el selector de nodos del pod debe tener la misma clave/valor que la etiqueta del nodo.

Defina nodeSelectors en un par clave/valor que coincida con el selector de nodos del pod y la etiqueta del nodo de trabajador.

Formato JSON.

Opcional Nulo {"foo":"bar", "foo2": "bar2"}

El pod solo se ejecutará en nodos que tengan la etiqueta foo=bar o foo2=bar2.

numOfReplicas numOfReplicas Número de réplicas del despliegue del complemento. necesario 1

Crea una réplica del despliegue del complemento por cluster.

2

Crea dos réplicas del despliegue del complemento por cluster.

rollingUpdate rollingUpdate

Controla el comportamiento deseado de la actualización sucesiva mediante maxSurge y maxUnavailable.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo
tolerancias tolerancias

Puede utilizar marcas y tolerancias para controlar los nodos de trabajador en los que se ejecutan los pods.

Para que un pod se ejecute en un nodo que tenga un color, el pod debe tener una tolerancia correspondiente.

Defina tolerancias en un par clave/valor que coincida con la tolerancia del pod y con la mancha del nodo de trabajador.

Formato JSON.

Opcional Nulo [{"key":"tolerationKeyFoo", "value":"tolerationValBar", "effect":"noSchedule", "operator":"exists"}]

Solo los pods que tienen esta tolerancia se pueden ejecutar en nodos de trabajador que tienen la mancha tolerationKeyFoo=tolerationValBar:noSchedule.

topologySpreadConstraints topologySpreadConstraints

Cómo difundir pods coincidentes entre la topología determinada.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo

Otros argumentos de configuración

Clave (API y CLI) Nombre mostrado de la clave (consola) Descripción Necesario/Opcional Valor por defecto Valor de ejemplo
customizeConfigMap customizeConfigMap

Si desea que Oracle gestione Istio automáticamente, defina customizeConfigMap en false (valor por defecto).

Si desea personalizar Istio mediante istioctl (u otra herramienta compatible con Istio) y desea conservar las personalizaciones cuando Oracle actualice el complemento, defina customizeConfigMap en true.

necesario false true
enableIngressGateway enableIngressGateway Activar gateway de entrada de Istio necesario false true
istio-ingressgateway.Annotations istio-ingressgateway.Annotations

Anotaciones para pasar al despliegue de Istio.

Por ejemplo, para especificar la unidad del equilibrador de carga o si se debe crear el equilibrador de carga como un equilibrador de carga de red. Para obtener más anotaciones, consulte Resumen de anotaciones para equilibradores de carga y equilibradores de carga de red.

Formato JSON
Opcional ""

{"service.beta.kubernetes.io/oci-load-balancer-shape":"400Mbps"}

{"oci.oraclecloud.com/load-balancer-type": "nlb"}

Perfil Perfil Perfil de instalación de Istio necesario "oke-default" "oke-default"

Argumentos de configuración del complemento del controlador de entrada nativo de OCI

Al activar el complemento de cluster de controlador de entrada nativo de OCI, puede transferir los siguientes pares clave/valor como argumentos:

Argumentos de configuración utilizados habitualmente

Clave (API y CLI) Nombre mostrado de la clave (consola) Descripción Necesario/Opcional Valor por defecto Valor de ejemplo
afinidad afinidad

Grupo de reglas de programación de afinidad.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo
nodeSelectors selectores de nodos

Puede utilizar selectores de nodos y etiquetas de nodos para controlar los nodos de trabajador en los que se ejecutan los pods.

Para que un pod se ejecute en un nodo, el selector de nodos del pod debe tener la misma clave/valor que la etiqueta del nodo.

Defina nodeSelectors en un par clave/valor que coincida con el selector de nodos del pod y la etiqueta del nodo de trabajador.

Formato JSON.

Opcional Nulo {"foo":"bar", "foo2": "bar2"}

El pod solo se ejecutará en nodos que tengan la etiqueta foo=bar o foo2=bar2.

numOfReplicas numOfReplicas Número de réplicas del despliegue del complemento. necesario 1

Crea una réplica del despliegue del complemento por cluster.

2

Crea dos réplicas del despliegue del complemento por cluster.

rollingUpdate rollingUpdate

Controla el comportamiento deseado de la actualización sucesiva mediante maxSurge y maxUnavailable.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo
tolerancias tolerancias

Puede utilizar marcas y tolerancias para controlar los nodos de trabajador en los que se ejecutan los pods.

Para que un pod se ejecute en un nodo que tenga un color, el pod debe tener una tolerancia correspondiente.

Defina tolerancias en un par clave/valor que coincida con la tolerancia del pod y con la mancha del nodo de trabajador.

Formato JSON.

Opcional Nulo [{"key":"tolerationKeyFoo", "value":"tolerationValBar", "effect":"noSchedule", "operator":"exists"}]

Solo los pods que tienen esta tolerancia se pueden ejecutar en nodos de trabajador que tienen la mancha tolerationKeyFoo=tolerationValBar:noSchedule.

topologySpreadConstraints topologySpreadConstraints

Cómo difundir pods coincidentes entre la topología determinada.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo

Otros argumentos de configuración

Clave (API y CLI) Nombre mostrado de la clave (consola) Descripción Necesario/Opcional Valor por defecto Valor de ejemplo
authSecretName authSecretName Nombre del secreto de Kubernetes que se utilizará para la autenticación de usuario cuando authType esté definido en user. Opcional "" oci-config
authType authType El tipo de autenticación que utiliza el controlador de entrada nativo de OCI al realizar solicitudes, como uno de los siguientes:
  • instance especifica el principal de instancia (solo nodos gestionados)
  • user especifica el principal de usuario (nodos virtuales y gestionados)
  • workload especifica la identidad de la carga de trabajo (nodos gestionados y virtuales)
Opcional instance workload
compartmentId compartmentId OCID del compartimento en el que el controlador de entrada nativo de OCI va a crear el equilibrador de carga y el certificado de OCI. necesario "" ocid1.compartment.oc1..aaaaaaaa______ddq
controllerClass controllerClass Nombre del controlador especificado en ingressClass que debe gestionar el controlador oci-native-ingress-controller. Opcional oci.oraclecloud.com/native-ingress-controller oci.oraclecloud.com/native-ingress-controller
leaseLockName leaseLockName Nombre del arrendamiento que se utilizará para la elección de líder. Opcional oci-native-ingress-controller oci-native-ingress-controller
leaseLockNamespace leaseLockNamespace Espacio de nombres del permiso. Opcional native-ingress-controller-system native-ingress-controller-system
loadBalancerSubnetId loadBalancerSubnetId OCID de la subred del equilibrador de carga. necesario "" ocid1.subnet.oc1.iad.aaaaaaaa______dba
logVerbosity logVerbosity Número del nivel de detalle del registro. Opcional 4 2
metricsBackend metricsBackend Nombre del backend de métricas. Opcional prometheus prometheus
metricsPort metricsPort Puerto de métricas. Opcional 2223 2223

Argumentos de configuración del complemento del servidor de métricas de Kubernetes

Al activar el complemento de cluster del servidor de métricas de Kubernetes, puede transferir los siguientes pares clave/valor como argumentos:

Argumentos de configuración utilizados habitualmente

Clave (API y CLI) Nombre mostrado de la clave (consola) Descripción Necesario/Opcional Valor por defecto Valor de ejemplo
afinidad afinidad

Grupo de reglas de programación de afinidad.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo
nodeSelectors selectores de nodos

Puede utilizar selectores de nodos y etiquetas de nodos para controlar los nodos de trabajador en los que se ejecutan los pods.

Para que un pod se ejecute en un nodo, el selector de nodos del pod debe tener la misma clave/valor que la etiqueta del nodo.

Defina nodeSelectors en un par clave/valor que coincida con el selector de nodos del pod y la etiqueta del nodo de trabajador.

Formato JSON.

Opcional Nulo {"foo":"bar", "foo2": "bar2"}

El pod solo se ejecutará en nodos que tengan la etiqueta foo=bar o foo2=bar2.

numOfReplicas numOfReplicas Número de réplicas del despliegue del complemento. necesario 1

Crea una réplica del despliegue del complemento por cluster.

2

Crea dos réplicas del despliegue del complemento por cluster.

rollingUpdate rollingUpdate

Controla el comportamiento deseado de la actualización sucesiva mediante maxSurge y maxUnavailable.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo
tolerancias tolerancias

Puede utilizar marcas y tolerancias para controlar los nodos de trabajador en los que se ejecutan los pods.

Para que un pod se ejecute en un nodo que tenga un color, el pod debe tener una tolerancia correspondiente.

Defina tolerancias en un par clave/valor que coincida con la tolerancia del pod y con la mancha del nodo de trabajador.

Formato JSON.

Opcional Nulo [{"key":"tolerationKeyFoo", "value":"tolerationValBar", "effect":"noSchedule", "operator":"exists"}]

Solo los pods que tienen esta tolerancia se pueden ejecutar en nodos de trabajador que tienen la mancha tolerationKeyFoo=tolerationValBar:noSchedule.

topologySpreadConstraints topologySpreadConstraints

Cómo difundir pods coincidentes entre la topología determinada.

Formato JSON en texto sin formato o codificado en Base64.

Opcional Nulo Nulo

Otros argumentos de configuración

Clave (API y CLI) Nombre mostrado de la clave (consola) Descripción Necesario/Opcional Valor por defecto Valor de ejemplo
métricas: server.ContainerResources Recursos de contenedor de servidor de métricas

Puede especificar las cantidades de recursos que solicitan los contenedores del servidor de métricas y definir los límites de uso de recursos que los contenedores del servidor de métricas no pueden superar.

Formato JSON.

Opcional Nulo {"limits": {"cpu": "500m", "memory": "200Mi" }, "requests": {"cpu": "100m", "memory": "100Mi"}}

Cree contenedores del servidor de métricas que soliciten 100 mililicores de CPU y 100 mebibytes de memoria. Limite los contenedores del servidor de métricas a 500 mililicores de CPU y 200 mebibytes de memoria.