Argumentos de Configuração de Complemento de Cluster

Saiba mais sobre os argumentos de configuração que você pode transmitir aos complementos do cluster.

Ao ativar um complemento de cluster, você pode especificar um ou mais pares de chave/valor para passar como argumentos para o complemento de cluster.

Se o valor de uma chave for obrigatório no formato JSON, você poderá especificar o valor em texto simples ou codificado em Base64. Por exemplo, você pode especificar um dos seguintes como o valor da chave coreDnsContainerResources:

  • {"limits": {"cpu": "500m", "memory": "200Mi" }, "requests": {"cpu": "100m", "memory": "100Mi"}} (texto simples)
  • eyJsaW1pdHMiOiB7ImNwdSI6ICI1MDBtIiwgIm1lbW9yeSI6ICIyMDBNaSIgfSwgInJlcXVlc3RzIjogeyJjcHUiOiAiMTAwbSIsICJtZW1vcnkiOiAiMTAwTWkifX0= (codificado em Base64)

argumentos de configuração do complemento kube-proxy

Ao ativar o complemento de cluster kube-proxy, você pode passar os seguintes pares de chave/valor como argumentos:

Chave (API e CLI) Nome para Exibição da Chave (Console) Descrição Necessário/Opcional Valor Padrão Exemplo de Valor
afinidade afinidade

Um grupo de regras de programação de afinidade.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo
customizeKubeProxyConfigMap personalizar kube-proxy configMap

Se quiser que a Oracle gerencie o Kube-proxy para você automaticamente, defina customizeKubeProxyConfigMap como false (o padrão).

Se você quiser personalizar o comportamento do Kube-proxy, defina customizeKubeProxyConfigMap como true e crie um kube-proxy configMap no namespace kube-system.

Obrigatórias false true
nodeSelectors seletores de nó

Você pode usar seletores de nó e labels de nó para controlar os nós de trabalho nos quais os pods complementares são executados.

Para que um pod seja executado em um nó, o seletor de nós do pod deve ter a mesma chave/valor que o label do nó.

Defina nodeSelectors como um par de chave/valor que corresponda ao seletor de nós do pod e ao label do nó de trabalho.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo {"foo":"bar", "foo2": "bar2"}

O pod só será executado em nós que tenham o label foo=bar ou foo2=bar2.

rollingUpdate rollingUpdate

Controla o comportamento desejado da atualização incremental por maxSurge e maxUnavailable.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo
tolerâncias tolerâncias

Você pode usar restrições e tolerâncias para controlar os nós de trabalho nos quais os pods complementares são executados.

Para que um pod seja executado em um nó que tenha uma mancha, ele deve ter uma tolerância correspondente.

Defina tolerâncias como um par de chave/valor que corresponda à tolerância do pod e à redução do nó de trabalho.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo [{"key":"tolerationKeyFoo", "value":"tolerationValBar", "effect":"noSchedule", "operator":"exists"}]

Somente pods que têm essa tolerância podem ser executados nos nós de trabalho que têm a mancha tolerationKeyFoo=tolerationValBar:noSchedule.

topologySpreadConstraints topologySpreadConstraints

Como espalhar pods correspondentes entre a topologia fornecida.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo

CoreDNS argumentos de configuração de complemento

Quando você ativa o complemento de cluster CoreDNS, pode informar os seguintes pares de chave/valor como argumentos:

Chave (API e CLI) Nome para Exibição da Chave (Console) Descrição Necessário/Opcional Valor Padrão Exemplo de Valor
afinidade afinidade

Um grupo de regras de programação de afinidade.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo
coreDnsContainerResources CoreDNS recursos de contêiner

Você pode especificar as quantidades de recursos que os contêineres CoreDNS solicitam e definir limites de uso de recursos que os contêineres CoreDNS não podem exceder.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo {"limits": {"cpu": "500m", "memory": "200Mi" }, "requests": {"cpu": "100m", "memory": "100Mi"}}

Crie contêineres CoreDNS que solicitam 100 millicores de CPU e 100 mebibytes de memória. Limite contêineres CoreDNS a 500 millicores de CPU e 200 mebibytes de memória.

customizeCoreDNSConfigMap personalizar CoreDNS configMap

Se quiser que a Oracle gerencie CoreDNS para você automaticamente, defina customizeCoreDNSConfigMap como false (o padrão).

Se você quiser personalizar o comportamento CoreDNS, defina customizeCoreDNSConfigMap como true e crie uma coredns configMap no namespace kube-system.

Obrigatórias false true
minReplica réplica mínima

O número mínimo de réplicas da implantação CoreDNS.

Obrigatórias 1

Cria um total de um pod no cluster.

2

Cria um total de dois pods no cluster.

nodeSelectors seletores de nó

Você pode usar seletores de nó e labels de nó para controlar os nós de trabalho nos quais os pods complementares são executados.

Para que um pod seja executado em um nó, o seletor de nós do pod deve ter a mesma chave/valor que o label do nó.

Defina nodeSelectors como um par de chave/valor que corresponda ao seletor de nós do pod e ao label do nó de trabalho.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo {"foo":"bar", "foo2": "bar2"}

O pod só será executado em nós que tenham o label foo=bar ou foo2=bar2.

nodesPerReplica nós por réplica

O número de réplicas CoreDNS por nó do cluster.

Obrigatórias 1

Cria uma réplica em cada nó.

2

Cria uma réplica em cada segundo nó.

rollingUpdate rollingUpdate

Controla o comportamento desejado da atualização incremental por maxSurge e maxUnavailable.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo
tolerâncias tolerâncias

Você pode usar restrições e tolerâncias para controlar os nós de trabalho nos quais os pods complementares são executados.

Para que um pod seja executado em um nó que tenha uma mancha, ele deve ter uma tolerância correspondente.

Defina tolerâncias como um par de chave/valor que corresponda à tolerância do pod e à redução do nó de trabalho.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo [{"key":"tolerationKeyFoo", "value":"tolerationValBar", "effect":"noSchedule", "operator":"exists"}]

Somente pods que têm essa tolerância podem ser executados nos nós de trabalho que têm a mancha tolerationKeyFoo=tolerationValBar:noSchedule.

topologySpreadConstraints topologySpreadConstraints

Como espalhar pods correspondentes entre a topologia fornecida.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo

Argumentos de configuração do complemento do plug-in CNI da Rede de Pod Nativa da VCN do OCI

Quando você ativa o complemento de cluster do plug-in CNI de Rede de Pod Nativa da VCN do OCI, pode passar os seguintes pares de chave/valor como argumentos:

Chave (API e CLI) Nome para Exibição da Chave (Console) Descrição Necessário/Opcional Valor Padrão Exemplo de Valor
afinidade afinidade

Um grupo de regras de programação de afinidade.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo
nodeSelectors seletores de nó

Você pode usar seletores de nó e labels de nó para controlar os nós de trabalho nos quais os pods complementares são executados.

Para que um pod seja executado em um nó, o seletor de nós do pod deve ter a mesma chave/valor que o label do nó.

Defina nodeSelectors como um par de chave/valor que corresponda ao seletor de nós do pod e ao label do nó de trabalho.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo {"foo":"bar", "foo2": "bar2"}

O pod só será executado em nós que tenham o label foo=bar ou foo2=bar2.

rollingUpdate rollingUpdate

Controla o comportamento desejado da atualização incremental por maxSurge e maxUnavailable.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo
tolerâncias tolerâncias

Você pode usar restrições e tolerâncias para controlar os nós de trabalho nos quais os pods complementares são executados.

Para que um pod seja executado em um nó que tenha uma mancha, ele deve ter uma tolerância correspondente.

Defina tolerâncias como um par de chave/valor que corresponda à tolerância do pod e à redução do nó de trabalho.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo [{"key":"tolerationKeyFoo", "value":"tolerationValBar", "effect":"noSchedule", "operator":"exists"}]

Somente pods que têm essa tolerância podem ser executados nos nós de trabalho que têm a mancha tolerationKeyFoo=tolerationValBar:noSchedule.

topologySpreadConstraints topologySpreadConstraints

Como espalhar pods correspondentes entre a topologia fornecida.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo

argumentos de configuração de complemento de flannel

Ao ativar o complemento de cluster do plug-in flannel CNI, você pode passar os seguintes pares de chave/valor como argumentos:

Chave (API e CLI) Nome para Exibição da Chave (Console) Descrição Necessário/Opcional Valor Padrão Exemplo de Valor
afinidade afinidade

Um grupo de regras de programação de afinidade.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo
nodeSelectors seletores de nó

Você pode usar seletores de nó e labels de nó para controlar os nós de trabalho nos quais os pods complementares são executados.

Para que um pod seja executado em um nó, o seletor de nós do pod deve ter a mesma chave/valor que o label do nó.

Defina nodeSelectors como um par de chave/valor que corresponda ao seletor de nós do pod e ao label do nó de trabalho.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo {"foo":"bar", "foo2": "bar2"}

O pod só será executado em nós que tenham o label foo=bar ou foo2=bar2.

rollingUpdate rollingUpdate

Controla o comportamento desejado da atualização incremental por maxSurge e maxUnavailable.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo
tolerâncias tolerâncias

Você pode usar restrições e tolerâncias para controlar os nós de trabalho nos quais os pods complementares são executados.

Para que um pod seja executado em um nó que tenha uma mancha, ele deve ter uma tolerância correspondente.

Defina tolerâncias como um par de chave/valor que corresponda à tolerância do pod e à redução do nó de trabalho.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo [{"key":"tolerationKeyFoo", "value":"tolerationValBar", "effect":"noSchedule", "operator":"exists"}]

Somente pods que têm essa tolerância podem ser executados nos nós de trabalho que têm a mancha tolerationKeyFoo=tolerationValBar:noSchedule.

topologySpreadConstraints topologySpreadConstraints

Como espalhar pods correspondentes entre a topologia fornecida.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo

Argumentos de configuração do complemento do Painel de Controle do Kubernetes

Ao ativar o complemento do cluster do Painel de Controle do Kubernetes, você pode informar os seguintes pares de chave/valor como argumentos:

Chave (API e CLI) Nome para Exibição da Chave (Console) Descrição Necessário/Opcional Valor Padrão Exemplo de Valor
afinidade afinidade

Um grupo de regras de programação de afinidade.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo
nodeSelectors seletores de nó

Você pode usar seletores de nó e labels de nó para controlar os nós de trabalho nos quais os pods são executados.

Para que um pod seja executado em um nó, o seletor de nós do pod deve ter a mesma chave/valor que o label do nó.

Defina nodeSelectors como um par de chave/valor que corresponda ao seletor de nós do pod e ao label do nó de trabalho.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo {"foo":"bar", "foo2": "bar2"}

O pod só será executado em nós que tenham o label foo=bar ou foo2=bar2.

numOfReplicas numOfReplicas O número de réplicas da implantação do Painel de Controle do Kubernetes. Obrigatórias 1

Cria uma réplica da implantação de complemento por cluster.

2

Cria duas réplicas da implantação de complemento por cluster.

rollingUpdate rollingUpdate

Controla o comportamento desejado da atualização incremental por maxSurge e maxUnavailable.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo
tolerâncias tolerâncias

Você pode usar restrições e tolerâncias para controlar os nós de trabalho nos quais os pods são executados.

Para que um pod seja executado em um nó que tenha uma mancha, ele deve ter uma tolerância correspondente.

Defina tolerâncias como um par de chave/valor que corresponda à tolerância do pod e à redução do nó de trabalho.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo [{"key":"tolerationKeyFoo", "value":"tolerationValBar", "effect":"noSchedule", "operator":"exists"}]

Somente pods que têm essa tolerância podem ser executados nos nós de trabalho que têm a mancha tolerationKeyFoo=tolerationValBar:noSchedule.

topologySpreadConstraints topologySpreadConstraints

Como espalhar pods correspondentes entre a topologia fornecida.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo

Argumentos de configuração do complemento do Tiller (não recomendado)

Ao ativar o complemento de cluster do Tiller, você pode passar os seguintes pares de chave/valor como argumentos.

Observe que o Tiller foi removido do Helm na versão 3 (e versões posteriores) devido a riscos de segurança conhecidos. Por causa desses riscos de segurança, recomendamos que você não implante o Tiller em clusters de produção. Pelo mesmo motivo, o complemento do Tiller não é mostrado na Console. Se você decidir que deseja implantar o complemento Tiller apesar dos riscos de segurança, use a CLI ou a API do OCI.

Chave (API e CLI) Nome para Exibição da Chave (Console) Descrição Necessário/Opcional Valor Padrão Exemplo de Valor
afinidade afinidade

Um grupo de regras de programação de afinidade.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo
nodeSelectors seletores de nó

Você pode usar seletores de nó e labels de nó para controlar os nós de trabalho nos quais os pods são executados.

Para que um pod seja executado em um nó, o seletor de nós do pod deve ter a mesma chave/valor que o label do nó.

Defina nodeSelectors como um par de chave/valor que corresponda ao seletor de nós do pod e ao label do nó de trabalho.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo {"foo":"bar", "foo2": "bar2"}

O pod só será executado em nós que tenham o label foo=bar ou foo2=bar2.

rollingUpdate rollingUpdate

Controla o comportamento desejado da atualização incremental por maxSurge e maxUnavailable.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo
tolerâncias tolerâncias

Você pode usar restrições e tolerâncias para controlar os nós de trabalho nos quais os pods são executados.

Para que um pod seja executado em um nó que tenha uma mancha, ele deve ter uma tolerância correspondente.

Defina tolerâncias como um par de chave/valor que corresponda à tolerância do pod e à redução do nó de trabalho.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo [{"key":"tolerationKeyFoo", "value":"tolerationValBar", "effect":"noSchedule", "operator":"exists"}]

Somente pods que têm essa tolerância podem ser executados nos nós de trabalho que têm a mancha tolerationKeyFoo=tolerationValBar:noSchedule.

topologySpreadConstraints topologySpreadConstraints

Como espalhar pods correspondentes entre a topologia fornecida.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo

Argumentos de configuração do complemento do Oracle Database Operator for Kubernetes

Ao ativar o complemento de cluster do Oracle Database Operator for Kubernetes, você pode informar os seguintes pares de chave/valor como argumentos:

Chave (API e CLI) Nome para Exibição da Chave (Console) Descrição Necessário/Opcional Valor Padrão Exemplo de Valor
afinidade afinidade

Um grupo de regras de programação de afinidade.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo
nodeSelectors seletores de nó

Você pode usar seletores de nó e labels de nó para controlar os nós de trabalho nos quais os pods são executados.

Para que um pod seja executado em um nó, o seletor de nós do pod deve ter a mesma chave/valor que o label do nó.

Defina nodeSelectors como um par de chave/valor que corresponda ao seletor de nós do pod e ao label do nó de trabalho.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo {"foo":"bar", "foo2": "bar2"}

O pod só será executado em nós que tenham o label foo=bar ou foo2=bar2.

numOfReplicas numOfReplicas O número de réplicas da implantação do Operador de Banco de Dados. Obrigatórias 1

Cria uma réplica da implantação de complemento por cluster.

2

Cria duas réplicas da implantação de complemento por cluster.

rollingUpdate rollingUpdate

Controla o comportamento desejado da atualização incremental por maxSurge e maxUnavailable.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo
tolerâncias tolerâncias

Você pode usar restrições e tolerâncias para controlar os nós de trabalho nos quais os pods são executados.

Para que um pod seja executado em um nó que tenha uma mancha, ele deve ter uma tolerância correspondente.

Defina tolerâncias como um par de chave/valor que corresponda à tolerância do pod e à redução do nó de trabalho.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo [{"key":"tolerationKeyFoo", "value":"tolerationValBar", "effect":"noSchedule", "operator":"exists"}]

Somente pods que têm essa tolerância podem ser executados nos nós de trabalho que têm a mancha tolerationKeyFoo=tolerationValBar:noSchedule.

topologySpreadConstraints topologySpreadConstraints

Como espalhar pods correspondentes entre a topologia fornecida.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo

WebLogic Argumentos de configuração do complemento do Operador do Kubernetes

Quando você ativa o complemento do cluster do Operador do Kubernetes WebLogic, pode informar os seguintes pares de chave/valor como argumentos:

Chave (API e CLI) Nome para Exibição da Chave (Console) Descrição Necessário/Opcional Valor Padrão Exemplo de Valor
afinidade afinidade

Um grupo de regras de programação de afinidade.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo
nodeSelectors seletores de nó

Você pode usar seletores de nó e labels de nó para controlar os nós de trabalho nos quais os pods são executados.

Para que um pod seja executado em um nó, o seletor de nós do pod deve ter a mesma chave/valor que o label do nó.

Defina nodeSelectors como um par de chave/valor que corresponda ao seletor de nós do pod e ao label do nó de trabalho.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo {"foo":"bar", "foo2": "bar2"}

O pod só será executado em nós que tenham o label foo=bar ou foo2=bar2.

numOfReplicas numOfReplicas O número de réplicas da implantação do Operador do Weblogic. Obrigatórias 1

Cria uma réplica da implantação de complemento por cluster.

2

Cria duas réplicas da implantação de complemento por cluster.

rollingUpdate rollingUpdate

Controla o comportamento desejado da atualização incremental por maxSurge e maxUnavailable.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo
tolerâncias tolerâncias

Você pode usar restrições e tolerâncias para controlar os nós de trabalho nos quais os pods são executados.

Para que um pod seja executado em um nó que tenha uma mancha, ele deve ter uma tolerância correspondente.

Defina tolerâncias como um par de chave/valor que corresponda à tolerância do pod e à redução do nó de trabalho.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo [{"key":"tolerationKeyFoo", "value":"tolerationValBar", "effect":"noSchedule", "operator":"exists"}]

Somente pods que têm essa tolerância podem ser executados nos nós de trabalho que têm a mancha tolerationKeyFoo=tolerationValBar:noSchedule.

topologySpreadConstraints topologySpreadConstraints

Como espalhar pods correspondentes entre a topologia fornecida.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo

Argumentos de configuração da extensão do gerenciador de certificados

Ao ativar o complemento do cluster do Gerenciador de Certificados, você pode passar os seguintes pares de chave/valor como argumentos:

Chave (API e CLI) Nome para Exibição da Chave (Console) Descrição Necessário/Opcional Valor Padrão Exemplo de Valor
afinidade afinidade

Um grupo de regras de programação de afinidade.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo
nodeSelectors seletores de nó

Você pode usar seletores de nó e labels de nó para controlar os nós de trabalho nos quais os pods são executados.

Para que um pod seja executado em um nó, o seletor de nós do pod deve ter a mesma chave/valor que o label do nó.

Defina nodeSelectors como um par de chave/valor que corresponda ao seletor de nós do pod e ao label do nó de trabalho.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo {"foo":"bar", "foo2": "bar2"}

O pod só será executado em nós que tenham o label foo=bar ou foo2=bar2.

numOfReplicas numOfReplicas O número de réplicas da implantação do Gerenciador de Certificados. Obrigatórias 1

Cria uma réplica da implantação de complemento por cluster.

2

Cria duas réplicas da implantação de complemento por cluster.

rollingUpdate rollingUpdate

Controla o comportamento desejado da atualização incremental por maxSurge e maxUnavailable.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo
tolerâncias tolerâncias

Você pode usar restrições e tolerâncias para controlar os nós de trabalho nos quais os pods são executados.

Para que um pod seja executado em um nó que tenha uma mancha, ele deve ter uma tolerância correspondente.

Defina tolerâncias como um par de chave/valor que corresponda à tolerância do pod e à redução do nó de trabalho.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo [{"key":"tolerationKeyFoo", "value":"tolerationValBar", "effect":"noSchedule", "operator":"exists"}]

Somente pods que têm essa tolerância podem ser executados nos nós de trabalho que têm a mancha tolerationKeyFoo=tolerationValBar:noSchedule.

topologySpreadConstraints topologySpreadConstraints

Como espalhar pods correspondentes entre a topologia fornecida.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo

Argumentos de configuração de complemento do Cluster Autoscaler

Ao ativar o complemento do Cluster Autoscaler, você pode passar os seguintes pares de chave/valor como argumentos:

Argumentos de configuração comumente usados

Chave (API e CLI) Nome para Exibição da Chave (Console) Descrição Necessário/Opcional Valor Padrão Exemplo de Valor
afinidade afinidade

Um grupo de regras de programação de afinidade.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo
numOfReplicas numOfReplicas O número de réplicas da implantação do complemento Cluster Autoscaler. Obrigatórias 1

Cria uma réplica da implantação de complemento por cluster.

2

Cria duas réplicas da implantação de complemento por cluster.

nodeSelectors seletores de nó

Você pode usar seletores de nó e labels de nó para controlar os nós de trabalho nos quais os pods são executados.

Para que um pod seja executado em um nó, o seletor de nós do pod deve ter a mesma chave/valor que o label do nó.

Defina nodeSelectors como um par de chave/valor que corresponda ao seletor de nós do pod e ao label do nó de trabalho.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo {"foo":"bar", "foo2": "bar2"}

O pod só será executado em nós que tenham o label foo=bar ou foo2=bar2.

rollingUpdate rollingUpdate

Controla o comportamento desejado da atualização incremental por maxSurge e maxUnavailable.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo
tolerâncias tolerâncias

Você pode usar restrições e tolerâncias para controlar os nós de trabalho nos quais os pods são executados.

Para que um pod seja executado em um nó que tenha uma mancha, ele deve ter uma tolerância correspondente.

Defina tolerâncias como um par de chave/valor que corresponda à tolerância do pod e à redução do nó de trabalho.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo [{"key":"tolerationKeyFoo", "value":"tolerationValBar", "effect":"noSchedule", "operator":"exists"}]

Somente pods que têm essa tolerância podem ser executados nos nós de trabalho que têm a mancha tolerationKeyFoo=tolerationValBar:noSchedule.

topologySpreadConstraints topologySpreadConstraints

Como espalhar pods correspondentes entre a topologia fornecida.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo

Outros argumentos de configuração

Chave (API e CLI) Nome para Exibição da Chave (Console) Descrição Necessário/Opcional Valor Padrão
anotações anotações

Anotações a serem transmitidas para a implantação do Cluster Autoscaler.

Por exemplo, "{\"prometheus.io/scrape\":\"true\",\"prometheus.io/port\":\"8086\"}"

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional ""
authType authType O tipo de autenticação que o Cluster Autoscaler usa ao fazer solicitações, como um dos seguintes:
  • instance especifica o controlador de instâncias
  • workload especifica a identidade da carga de trabalho
Obrigatórias instância
balanceSimilarNodeGroups balanceSimilarNodeGroups Detecte grupos de nós semelhantes e equilibre o número de nós entre eles. Opcional falso
balancingIgnoreLabel balancingIgnoreLabel Defina um rótulo de nó que deve ser ignorado ao considerar a similaridade do grupo de nós. Um rótulo por ocorrência de sinalizador. O formato é label1, label2. Opcional ""
balancingLabel balancingLabel Defina um rótulo de nó a ser usado ao comparar a similaridade do grupo de nós. Se definido, todas as outras lógicas de comparação serão desativadas e somente rótulos serão considerados ao comparar grupos. Um rótulo por ocorrência de sinalizador. O formato é label1, label2. Opcional ""
cordonNodeBeforeTerminating (Não mostrado na Console) Os nós do cabo CA devem ser encerrados antes do processo de downscale. Opcional falso
coresTotal (Não mostrado na Console) Número mínimo e máximo de núcleos no cluster, no formato <min>:<max>. O Cluster Autoscaler não dimensionará o cluster além desses números. Opcional 0:320,000
daemonsetEvictionForEmptyNodes (Não mostrado na Console) Se os pods DaemonSet serão encerrados normalmente de nós vazios. Opcional falso
daemonsetEvictionForOccupiedNodes (Não mostrado na Console) Se os pods DaemonSet serão encerrados normalmente de nós não vazios. Opcional verdadeiro
debuggingSnapshotEnabled (Não mostrado na Console) Se o snapshot de depuração do recurso do dimensionador automático de cluster está ativado. Opcional falso
emitPerNodegroupMetrics (Não mostrado na Console) Se verdadeiro, emita por métricas do grupo de nós. Opcional falso
enforceNodeGroupMinSize (Não mostrado na Console) A CA deve expandir o grupo de nós para o tamanho mínimo configurado, se necessário. Opcional falso
estimador (Não mostrado na Console) Tipo de estimador de recursos a ser usado na ampliação. Opcional binpacking
expansor expansor Tipo de expansor de grupo de nós a ser usado na ampliação.

Observe que expander=price não é suportado.

Opcional random
expendablePodsPriorityCutoff (Não mostrado na Console) Pods com prioridade abaixo do limite serão descartáveis. Eles podem ser mortos sem qualquer consideração durante a redução e não causam aumento. Os pods com prioridade nula (PodPriority desativado) não são gastáveis. Opcional -10
ignoreDaemonsetsUtilization (Não mostrado na Console) Se os pods DaemonSet serão ignorados ao calcular a utilização de recursos para redução. Opcional falso
ignoreMirrorPodsUtilization (Não mostrado na Console) Se os pods Espelhados serão ignorados ao calcular a utilização de recursos para redução. Opcional falso
leaderElect (Não mostrado na Console) Inicie um cliente de eleição líder e ganhe liderança antes de executar o loop principal. Ative isso ao executar componentes replicados para alta disponibilidade. Opcional verdadeiro
leaderElectLeaseDuration (Não mostrado na Console) A duração que os candidatos não-líderes aguardarão depois de observar uma renovação da liderança até tentar adquirir a liderança de uma vaga de líder liderada, mas não renovada. Esta é efetivamente a duração máxima que um líder pode ser parado antes de ser substituído por outro candidato. Isso só é aplicável se a eleição do líder estiver ativada. Opcional 15s
leaderElectRenewDeadline (Não mostrado na Console) O intervalo entre as tentativas do escalador automático de cluster ativo para renovar um slot de liderança antes que ele pare de liderar. Deve ser menor ou igual à duração do leasing. Isso só é aplicável se a eleição do líder estiver ativada. Opcional 10s
leaderElectResourceLock (Não mostrado na Console) O tipo de objeto de recurso que é usado para bloqueio durante a eleição do líder. As opções suportadas são leases (padrão), endpoints, endpointsleases, configmaps e configmapsleases. Opcional arrendamentos
leaderElectRetryPeriod (Não mostrado na Console) A duração que os clientes devem esperar entre a tentativa de aquisição e renovação de uma liderança. Isso só é aplicável se a eleição do líder estiver ativada. Opcional 2s
maxAutoprovisionedNodeGroupCount (Não mostrado na Console) O número máximo de grupos provisionados automaticamente no cluster. Opcional 15
maxEmptyBulkDelete maxEmptyBulkDelete Número máximo de nós vazios que podem ser excluídos ao mesmo tempo. Opcional 10
maxFailingTime (Não mostrado na Console) Tempo máximo da última execução bem-sucedida do dimensionador automático registrada antes da reinicialização automática. Opcional 15m
maxGracefulTerminationSec (Não mostrado na Console) Número máximo de segundos que a CA aguarda o encerramento do pod ao tentar reduzir um nó. Opcional 600
maxInactivity (Não mostrado na Console) Tempo máximo da última atividade do dimensionador automático registrada antes da reinicialização automática. Opcional 10m
maxNodeProvisionTime maxNodeProvisionTime Tempo máximo que a CA aguarda o provisionamento do nó. Opcional 15m
maxNodesTotal (Não mostrado na Console) Número máximo de nós em todos os pools de nós. O Cluster Autoscaler não aumentará o cluster além desse número. Opcional 0
maxTotalUnreadyPercentage (Não mostrado na Console) Porcentagem máxima de nós não prontos no cluster. Depois que isso for excedido, a CA interromperá as operações. Opcional 45
memoryTotal (Não mostrado na Console) Número mínimo e máximo de gigabytes de memória no cluster, no formato <min>:<max>. O Cluster Autoscaler não dimensionará o cluster além desses números. Opcional 0:6,400,000
minReplicaCount (Não mostrado na Console) Número mínimo ou réplicas que um conjunto de réplicas ou controlador de replicação deve ter para permitir a exclusão de seus pods em redução. Opcional 0
nós nós

Uma lista de Número mínimo de nós, Número máximo de nós e o OCID do pool de nós a ser gerenciado pelo dimensionador automático do cluster.

O formato é <min>:<max>:<node-pool1-ocid>, <min>:<max>:<node-pool2-ocid>.

Formato JSON em texto sem formatação ou codificado em Base64.

Obrigatórias ""
okTotalUnreadyCount (Não mostrado na Console) Número de nós não prontos permitidos, independentemente da porcentagem máxima total não pronta. Opcional 3
recordDuplicatedEvents (Não mostrado na Console) Ative o dimensionador automático para imprimir eventos duplicados em uma janela de 5 minutos. Opcional falso
scaleDownCandidatesPoolMinCount (Não mostrado na Console)

Número mínimo de nós considerados como candidatos não vazios adicionais para redução quando alguns candidatos da iteração anterior não são mais válidos. Ao calcular o tamanho do pool para candidatos adicionais, tomamos.

max(#nodes * scale-down-candidates-pool-ratio,
              scale-down-candidates-pool-min-count)
Obrigatórias 50
scaleDownCandidatesPoolRatio (Não mostrado na Console) Uma proporção de nós que são considerados como candidatos não vazios adicionais para redução quando alguns candidatos da iteração anterior não são mais válidos. Valor mais baixo significa melhor capacidade de resposta da CA, mas possível redução mais lenta da latência. Um valor mais alto pode afetar o desempenho da CA com clusters grandes (centenas de nós). Definido como 1.0 para desativar essa heurística - a CA considerará todos os nós como candidatos adicionais. Obrigatórias 0.1
scaleDownDelayAfterAdd scaleDownDelayAfterAdd Quanto tempo depois de ampliar essa avaliação de redução é retomado. Obrigatórias 10m
scaleDownDelayAfterDelete (Não mostrado na Console) Quanto tempo depois que a exclusão do nó que reduz a avaliação é retomada, o padrão é o intervalo de verificação. Obrigatórias 10s
scaleDownDelayAfterFailure (Não mostrado na Console) Quanto tempo depois de reduzir a falha, a avaliação de redução é retomada. Obrigatórias 3m
scaleDownEnabled scaleDownEnabled A CA deve reduzir o cluster. Opcional verdadeiro
scaleDownNonEmptyCandidatesCount (Não mostrado na Console) Número máximo de nós não vazios considerados em uma iteração como candidatos para redução com drenagem. Valor mais baixo significa melhor capacidade de resposta da CA, mas possível redução mais lenta da latência. Um valor mais alto pode afetar o desempenho da CA com clusters grandes (centenas de nós). Defina como um valor não positivo para desativar essa heurística - a CA não limitará o número de nós considerados. Obrigatórias 30
scaleDownUnneededTime scaleDownUnneededTime Por quanto tempo um nó deve ser desnecessário antes de ser elegível para redução. Obrigatórias 10m
scaleDownUnreadyTime (Não mostrado na Console) Por quanto tempo um nó não pronto deve ser desnecessário antes de ser elegível para redução. Obrigatórias 20m
scaleDownUtilizationThreshold (Não mostrado na Console) Nível de utilização do nó, definido como a soma dos recursos solicitados dividida pela capacidade, abaixo do qual um nó pode ser considerado para redução. Obrigatórias 0.5
scanInterval scanInterval Com que frequência o cluster é reavaliado para ampliação ou redução. Opcional 10s
skipNodesWithCustomControllerPods (Não mostrado na Console) Se verdadeiro, o dimensionador automático de cluster nunca excluirá nós com pods pertencentes a controladores personalizados. Opcional verdadeiro
skipNodesWithLocalStorage (Não mostrado na Console) Se verdadeiro, o escalador automático do cluster nunca excluirá nós com pods com armazenamento local, por exemplo, EmptyDir ou HostPath. Opcional verdadeiro
skipNodesWithSystemPods (Não mostrado na Console) Se verdadeiro, o escalador automático do cluster nunca excluirá nós com pods do kube-system (exceto para pods DaemonSet ou espelhados). Opcional verdadeiro
statusConfigMapName (Não mostrado na Console) O nome do status ConfigMap que a CA grava. Opcional cluster-autoscaler-status
limite superior (Não mostrado na Console) O limite de severidade do log, além do qual os logs são enviados ao stderr. Por exemplo, se você definir isso como error, todos os logs com uma severidade maior que error serão enviados para stderr. Opcional informações
unremovableNodeRecheckTimeout unremovableNodeRecheckTimeout O timeout antes de verificarmos novamente um nó que não pôde ser removido antes. Obrigatórias 5m
v (Não mostrado na Console) O número para o nível de detalhamento do log. Opcional 0
writeStatusConfigmap (Não mostrado na Console) A CA deve gravar informações de status em um configmap. Opcional verdadeiro

Argumentos de configuração de complemento Istio

Ao ativar o complemento do cluster Istio, você pode passar os seguintes pares de chave/valor como argumentos:

Argumentos de configuração comumente usados

Chave (API e CLI) Nome para Exibição da Chave (Console) Descrição Necessário/Opcional Valor Padrão Exemplo de Valor
afinidade afinidade

Um grupo de regras de programação de afinidade.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo
nodeSelectors seletores de nó

Você pode usar seletores de nó e labels de nó para controlar os nós de trabalho nos quais os pods são executados.

Para que um pod seja executado em um nó, o seletor de nós do pod deve ter a mesma chave/valor que o label do nó.

Defina nodeSelectors como um par de chave/valor que corresponda ao seletor de nós do pod e ao label do nó de trabalho.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo {"foo":"bar", "foo2": "bar2"}

O pod só será executado em nós que tenham o label foo=bar ou foo2=bar2.

numOfReplicas numOfReplicas O número de réplicas da implantação do complemento. Obrigatórias 1

Cria uma réplica da implantação de complemento por cluster.

2

Cria duas réplicas da implantação de complemento por cluster.

rollingUpdate rollingUpdate

Controla o comportamento desejado da atualização incremental por maxSurge e maxUnavailable.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo
tolerâncias tolerâncias

Você pode usar restrições e tolerâncias para controlar os nós de trabalho nos quais os pods são executados.

Para que um pod seja executado em um nó que tenha uma mancha, ele deve ter uma tolerância correspondente.

Defina tolerâncias como um par de chave/valor que corresponda à tolerância do pod e à redução do nó de trabalho.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo [{"key":"tolerationKeyFoo", "value":"tolerationValBar", "effect":"noSchedule", "operator":"exists"}]

Somente pods que têm essa tolerância podem ser executados nos nós de trabalho que têm a mancha tolerationKeyFoo=tolerationValBar:noSchedule.

topologySpreadConstraints topologySpreadConstraints

Como espalhar pods correspondentes entre a topologia fornecida.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo

Outros argumentos de configuração

Chave (API e CLI) Nome para Exibição da Chave (Console) Descrição Necessário/Opcional Valor Padrão Exemplo de Valor
customizeConfigMap customizeConfigMap

Se quiser que a Oracle gerencie o Istio para você automaticamente, defina customizeConfigMap como false (o padrão).

Se quiser personalizar o Istio usando istioctl (ou outra ferramenta suportada pelo Istio) e quiser manter as personalizações quando a Oracle atualizar o complemento, defina customizeConfigMap como true.

Obrigatórias false true
enableIngressGateway enableIngressGateway Ativar gateway de entrada Istio Obrigatórias false true
istio-ingressgateway.Annotations istio-ingressgateway.Annotations

Anotações a serem passadas para a implantação do Istio.

Por exemplo, para especificar a forma do balanceador de carga ou se o balanceador de carga deverá ser criado como um balanceador de carga de rede. Para obter mais anotações, consulte Resumo de Anotações para Balanceadores de Carga e Balanceadores de Carga de Rede.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional ""

{"service.beta.kubernetes.io/oci-load-balancer-shape":"400Mbps"}

{"oci.oraclecloud.com/load-balancer-type": "nlb"}

perfil perfil Perfil de instalação do Istio Obrigatórias "oke-default" "oke-default"

Argumentos de configuração de complemento do Controlador de Entrada Nativo do OCI

Ao ativar o complemento de cluster do controlador de entrada nativo do OCI, você pode informar os seguintes pares de chave/valor como argumentos:

Argumentos de configuração comumente usados

Chave (API e CLI) Nome para Exibição da Chave (Console) Descrição Necessário/Opcional Valor Padrão Exemplo de Valor
afinidade afinidade

Um grupo de regras de programação de afinidade.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo
nodeSelectors seletores de nó

Você pode usar seletores de nó e labels de nó para controlar os nós de trabalho nos quais os pods são executados.

Para que um pod seja executado em um nó, o seletor de nós do pod deve ter a mesma chave/valor que o label do nó.

Defina nodeSelectors como um par de chave/valor que corresponda ao seletor de nós do pod e ao label do nó de trabalho.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo {"foo":"bar", "foo2": "bar2"}

O pod só será executado em nós que tenham o label foo=bar ou foo2=bar2.

numOfReplicas numOfReplicas O número de réplicas da implantação do complemento. Obrigatórias 1

Cria uma réplica da implantação de complemento por cluster.

2

Cria duas réplicas da implantação de complemento por cluster.

rollingUpdate rollingUpdate

Controla o comportamento desejado da atualização incremental por maxSurge e maxUnavailable.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo
tolerâncias tolerâncias

Você pode usar restrições e tolerâncias para controlar os nós de trabalho nos quais os pods são executados.

Para que um pod seja executado em um nó que tenha uma mancha, ele deve ter uma tolerância correspondente.

Defina tolerâncias como um par de chave/valor que corresponda à tolerância do pod e à redução do nó de trabalho.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo [{"key":"tolerationKeyFoo", "value":"tolerationValBar", "effect":"noSchedule", "operator":"exists"}]

Somente pods que têm essa tolerância podem ser executados nos nós de trabalho que têm a mancha tolerationKeyFoo=tolerationValBar:noSchedule.

topologySpreadConstraints topologySpreadConstraints

Como espalhar pods correspondentes entre a topologia fornecida.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo

Outros argumentos de configuração

Chave (API e CLI) Nome para Exibição da Chave (Console) Descrição Necessário/Opcional Valor Padrão Exemplo de Valor
authSecretName authSecretName O nome do segredo do Kubernetes a ser usado para autenticação do usuário quando authType for definido como user. Opcional "" oci-config
authType authType O tipo de autenticação que o controlador de entrada nativo do OCI usa ao fazer solicitações, como um dos seguintes:
  • instance especifica o controlador de instâncias (somente nós gerenciados)
  • user especifica o controlador do usuário (nós gerenciados e virtuais)
  • workload especifica a identidade da carga de trabalho (nós gerenciados e virtuais)
Opcional instance workload
compartmentId compartmentId O OCID do compartimento no qual o controlador de entrada nativo do OCI deve criar o balanceador de carga e o certificado do OCI. Obrigatórias "" ocid1.compartment.oc1..aaaaaaaa______ddq
controllerClass controllerClass O nome do controlador especificado em seu ingressClass que deve ser gerenciado pelo oci-native-ingress-controller. Opcional oci.oraclecloud.com/native-ingress-controller oci.oraclecloud.com/native-ingress-controller
leaseLockName leaseLockName O nome do leasing a ser usado para a eleição do líder. Opcional oci-native-ingress-controller oci-native-ingress-controller
leaseLockNamespace leaseLockNamespace O namespace do leasing. Opcional native-ingress-controller-system native-ingress-controller-system
loadBalancerSubnetId loadBalancerSubnetId O OCID da sub-rede do balanceador de carga. Obrigatórias "" ocid1.subnet.oc1.iad.aaaaaaaa______dba
logVerbosity logVerbosity O número para o nível de detalhamento do log. Opcional 4 2
metricsBackend metricsBackend O nome do backend de métricas. Opcional prometheus prometheus
metricsPort metricsPort A porta de métricas. Opcional 2223 2223

Argumentos de configuração do complemento do Kubernetes Metrics Server

Quando você ativa o complemento do cluster do Kubernetes Metrics Server, pode informar os seguintes pares de chave/valor como argumentos:

Argumentos de configuração comumente usados

Chave (API e CLI) Nome para Exibição da Chave (Console) Descrição Necessário/Opcional Valor Padrão Exemplo de Valor
afinidade afinidade

Um grupo de regras de programação de afinidade.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo
nodeSelectors seletores de nó

Você pode usar seletores de nó e labels de nó para controlar os nós de trabalho nos quais os pods são executados.

Para que um pod seja executado em um nó, o seletor de nós do pod deve ter a mesma chave/valor que o label do nó.

Defina nodeSelectors como um par de chave/valor que corresponda ao seletor de nós do pod e ao label do nó de trabalho.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo {"foo":"bar", "foo2": "bar2"}

O pod só será executado em nós que tenham o label foo=bar ou foo2=bar2.

numOfReplicas numOfReplicas O número de réplicas da implantação do complemento. Obrigatórias 1

Cria uma réplica da implantação de complemento por cluster.

2

Cria duas réplicas da implantação de complemento por cluster.

rollingUpdate rollingUpdate

Controla o comportamento desejado da atualização incremental por maxSurge e maxUnavailable.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo
tolerâncias tolerâncias

Você pode usar restrições e tolerâncias para controlar os nós de trabalho nos quais os pods são executados.

Para que um pod seja executado em um nó que tenha uma mancha, ele deve ter uma tolerância correspondente.

Defina tolerâncias como um par de chave/valor que corresponda à tolerância do pod e à redução do nó de trabalho.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo [{"key":"tolerationKeyFoo", "value":"tolerationValBar", "effect":"noSchedule", "operator":"exists"}]

Somente pods que têm essa tolerância podem ser executados nos nós de trabalho que têm a mancha tolerationKeyFoo=tolerationValBar:noSchedule.

topologySpreadConstraints topologySpreadConstraints

Como espalhar pods correspondentes entre a topologia fornecida.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo nulo

Outros argumentos de configuração

Chave (API e CLI) Nome para Exibição da Chave (Console) Descrição Necessário/Opcional Valor Padrão Exemplo de Valor
métricas-server.ContainerResources Recursos de contêiner do Servidor de Métricas

Você pode especificar as quantidades de recursos que os contêineres do Metrics Server solicitam e definir limites de uso de recursos que os contêineres do Metrics Server não podem exceder.

Formato JSON em texto sem formatação ou codificado em Base64.

Opcional nulo {"limits": {"cpu": "500m", "memory": "200Mi" }, "requests": {"cpu": "100m", "memory": "100Mi"}}

Crie contêineres do Metrics Server que solicitem 100 millicores de CPU e 100 mebibytes de memória. Limite os contêineres do Metrics Server a 500 millicores de CPU e 200 mebibytes de memória.