Criando um Cluster do OKE
Saiba como criar clusters do OKE no Private Cloud Appliance.
Se você criar um cluster público, o Balanceador de Carga de Rede e o endereço IP público serão criados e designados como parte da criação do cluster.
Para que você possa criar um cluster, as seguintes condições devem ser atendidas:
-
A tag definida OraclePCA-OKE.cluster_id deve existir na tenancy. Consulte Criar a Tag OraclePCA-OKE.cluster_id.
-
Todos os domínios de falha devem estar íntegros.
-
Cada domínio de falha deve ter pelo menos uma instância de computação íntegra.
-
Recursos suficientes devem estar disponíveis para criar um cluster.
-
Certifique-se de que nenhum upgrade de appliance esteja programado durante a criação do cluster.
Se as notificações estiverem configuradas para operações como atualização do sistema, certifique-se de estar na lista para ser notificado sobre essas interrupções planejadas.
Para criar um pool de nós ao mesmo tempo em que cria o cluster, você deve usar a UI da Web do Compute.
Para especificar tags a serem aplicadas a todos os balanceadores de carga criados pelos serviços do Kubernetes, use a CLI do OCI.
- No menu de navegação Compute Web UI, selecione Contêineres e, em seguida, selecione Clusters do Kubernetes (OKE).
-
Na página da lista de clusters, selecione o botão Criar Cluster.
-
Na caixa de diálogo Criar Cluster, forneça as seguintes informações:
-
Nome: Informe um nome para o novo cluster. Evite digitar informações confidenciais.
-
Compartimento: Selecione o compartimento no qual o novo cluster deverá ser criado.
-
Versão do Kubernetes: Selecione a versão de Kubernetes a ser executada nos nós do plano do controle. Aceite a versão padrão ou selecione outra versão.
Se a versão do Kubernetes que você deseja usar não estiver listada, use a CLI do OCI ou a API para criar o cluster e especificar a versão do Kubernetes.
-
Tagging: Adicione as seguintes tags definidas ou de formato livre para o recurso de cluster.
Observação
Não especifique valores para a tag definida OraclePCA-OKE.cluster_id ou para a tag de formato livre ClusterResourceIdentifier. Esses valores de tag são gerados pelo sistema e aplicados apenas a nós (instâncias), não ao recurso de cluster.
Use tags definidas por OraclePCA para fornecer as informações a seguir para nós de plano de controle. Se essas tags não estiverem listadas nos menus de Tags da UI do Compute Web, você deverá criá-las. Consulte Criando Tags OraclePCA.
Importante
Se você estiver usando o Private Cloud Appliance Versão 3.0.2-b1081557, essas tags definidas não serão reconhecidas. Use tags de formato livre para especificar esses valores. Na Versão 3.0.2-b1185392 e posterior do Private Cloud Appliance, as tags de formato livre estão obsoletas; use as tags definidas descritas aqui para a chave SSH, o número de nós de plano de controle, a forma do nó e a configuração do nó na Versão 3.0.2-b1185392 e posterior do Private Cloud Appliance.
Observação
Nenhum desses valores - chave SSH, número de nós, forma de nó ou configuração de forma de nó - pode ser definido ou alterado após a criação do cluster. Se você definir essas tags ao atualizar o cluster, os novos valores serão ignorados.
-
Sua chave SSH pública.
Especifique sshkey para a chave de tag (OraclePCA.sshkey). Cole sua chave SSH pública no campo Valor.
Importante
Não é possível adicionar uma chave SSH após a criação do cluster.
-
Número de nós.
Por padrão, o número de nós no plano de controle é 3. Você pode especificar 1, 3 ou 5 nós. Para especificar o número de nós de plano de controle, especifique cp_node_count para a chave da tag (OraclePCA.cpNodeCount) e selecione 1, 3 ou 5 no campo Valor.
-
Forma do nó.
Para sistemas X10 do Private Cloud Appliance, a forma dos nós de plano de controle é VM.PCAStandard.E5. Flexível e você não pode mudar. Para todos os outros sistemas do Private Cloud Appliance, a forma padrão é VM.PCAStandard1.1 e você pode especificar outra forma.
Para usar outra forma, especifique cpNodeShape para a chave de tag (OraclePCA.cpNodeShape) e informe o nome da forma no campo Valor. Para obter descrições de formas disponíveis, consulte Formas de Computação.
-
Configuração de forma de nó.
Você pode alterar a configuração de forma padrão.
Para fornecer informações de configuração de forma, especifique
cp_node_shape_config
para a chave de tag (OraclePCA.cpNodeShapeConfig). Você deve especificar o número de OCPUs (ocpus
) desejado. Opcionalmente, você pode especificar a quantidade total de memória desejada (memoryInGBs
). O valor padrão para gigabytes de memória é 16 vezes o número especificado para OCPUs.Observação
Se o cluster tiver de 1 a 10 nós de trabalho, especifique pelo menos 16 GB de memória. Se o cluster tiver de 11 a 128 nós de trabalho, especifique pelo menos 2 OCPUs e 32 GB de memória. Você não pode alterar o número de OCPUs ou a quantidade de memória ao atualizar o cluster.
No campo Valor da tag, informe o valor de configuração da forma do nó, conforme mostrado nos exemplos a seguir.
No exemplo a seguir, a quantidade padrão de memória é configurada:
{"ocpus":1}
No exemplo a seguir, a quantidade de memória é especificada:
{"ocpus":2, "memoryInGBs":48}
Observação
Se você usar o Terraform para especificar um valor complexo (um valor que é um par de chave/valor), escape as aspas duplas no valor, conforme mostrado no seguinte exemplo:
"OraclePCA.cpNodeShapeConfig"="{\"ocpus\":2,\"memoryInGBs\":48}"
-
-
Complementos: Esta seção mostra um mosaico para cada complemento disponível para este cluster. Na caixa de diálogo Criar Cluster, todos os complementos estão Desativados. Consulte Instalando o Complemento do Kubernetes Operator WebLogic.
-
-
Selecione Próximo.
-
Na página Rede da caixa de diálogo Criar Cluster, forneça as seguintes informações:
-
Tipo de Rede. Especifica como os pods em execução nos nós do cluster se comunicam entre si, com os nós do plano de controle do cluster, com pods em outros clusters, com outros serviços (como serviços de armazenamento) e com a internet.
O tipo de rede Sobreposição de Flannel encapsula a comunicação entre pods na rede Sobreposição de Flannel. A rede de Sobreposição de Flannel é uma rede virtual simples de sobreposição privada que atende aos requisitos do modelo de rede OKE, anexando endereços IP a contêineres. Os pods na rede de sobreposição privada só podem ser acessados de outros pods no mesmo cluster. Para obter mais descrições, consulte Creating Flannel Overlay Network Resources.
-
O serviço VCN-Native Pod Networking conecta nós em um cluster do Kubernetes a sub-redes de pods na VCN do OKE. Como resultado, os endereços IP de pod dentro da VCN do OKE são diretamente roteáveis de outras VCNs conectadas (emparelhadas) à VCN do OKE e de redes locais. Para obter mais descrição, consulte Criando Recursos de Rede de Pods Nativos da VCN.
Observação
Se você especificar a Rede de Pods Nativos da VCN, a VCN especificada deverá ter uma sub-rede chamada
pod
. Consulte Criando Recursos de Rede de Pods Nativos da VCN. -
VCN. Selecione a VCN que tem a configuração da VCN "oke_vcn" descrita em Criando uma VCN (Sobreposição de Canal) ou Criando uma VCN (Rede de Pod Nativa da VCN).
-
Sub-rede LB do Kubernetes Service. A sub-rede configurada para hospedar o balanceador de carga em um cluster do Kubernetes. Para criar um cluster público, crie e especifique aqui a versão pública da sub-rede "service-lb" descrita em Criando uma Sub-rede do Worker Load Balancer (Sobreposição do Flannel) ou Criando uma Sub-rede do Worker Load Balancer (Pod Nativo da VCN). Para criar um cluster privado, crie e especifique aqui a versão privada da sub-rede "service-lb".
-
Sub-rede do Ponto Final da API Kubernetes. A sub-rede regional na qual o ponto final de cluster será colocado. Para criar um cluster público, crie e especifique aqui a versão pública da sub-rede "control-plane-endpoint" descrita em Criando uma Sub-rede do Plano de Controle do OKE (Sobreposição de Flannel) ou Criando uma Sub-rede do Plano de Controle (Pod Nativo da VCN). Para criar um cluster privado, crie e especifique aqui a versão privada da sub-rede "control-plane-endpoint".
-
Bloco CIDR de Serviço Kubernetes. (Opcional) O valor padrão é 10.96.0.0/16.
-
Bloco CIDR de Pods. (Opcional) O valor padrão é 10.244.0.0/16.
-
Grupo de Segurança de Rede. Se você marcar a caixa para ativar grupos de segurança de rede, selecione Adicionar Grupo de Segurança de Rede e selecione um NSG na lista drop-down. Pode ser que você precise alterar o compartimento para encontrar o NSG desejado.
-
-
Selecione Próximo.
-
Na página Pool de Nós, selecione o botão Adicionar Pool de Nós para, opcionalmente, adicionar um pool de nós como parte da criação desse cluster. Consulte Criando um Pool de Nós de Trabalho do OKE para adicionar pools de nós após a criação do cluster.
Se você selecionar o botão Adicionar Pool de Nós, especifique as seguintes informações na seção Adicionar Pool de Nós:
-
Nome: O nome do novo pool de nós. Evite usar informações confidenciais.
-
Compartimento: O compartimento no qual o novo pool de nós será criado.
-
Contagem de Nós: Informe o número de nós que deseja neste pool de nós. O padrão é 0. O número máximo é 128 por cluster, que pode ser distribuído entre vários pools de nós.
-
Consulte Criando um Pool de Nós de Trabalho do OKE para obter informações sobre Grupos de Segurança de Rede, Configuração de Posicionamento, Imagem de Origem, Forma e Comunicação do Pod.
-
-
Revise suas entradas.
Se você criou um pool de nós, poderá editar ou excluir o pool de nós nesta revisão.
-
Selecione Enviar.
A página de detalhes do cluster é exibida. Role até a seção Recursos e selecione Solicitações de Serviço para ver o andamento da criação do cluster. Se você criou um pool de nós, a solicitação de serviço NODEPOOL_CREATE ainda poderá estar Em Andamento por um tempo após o cluster estar Ativo e a solicitação de serviço CLUSTER_CREATE ter sido Bem-sucedida.
Em Recursos, selecione Solicitações de Serviço para ver o andamento da criação do cluster.
A página de detalhes do cluster não lista tags OraclePCA na guia Tags (e você não pode filtrar uma lista de clusters pelos valores das tags OraclePCA). Para revisar as definições das tags OraclePCA, use a CLI.
A página de detalhes do cluster não lista os nós do plano de controle do cluster. Para exibir os nós do plano de controle, exiba a lista de instâncias no compartimento em que você criou esse cluster. Os nomes dos nós do plano de controle estão no seguinte formato:
oke-ID1-control-plane-ID2
-
ID1 - Os primeiros 32 caracteres após a pca_name no OCID do cluster.
-
ID2 - Um identificador exclusivo adicionado quando o cluster tem mais de um nó do plano de controle.
Procure as instâncias na lista cujos nomes contêm a string ID1 deste OCID do cluster.
-
O Que Vem a Seguir:
-
Criar um arquivo de configuração do Kubernetes para o cluster. Consulte Criando um Arquivo de Configuração do Kubernetes.
-
Implantar um Painel de Controle do Kubernetes para gerenciar o cluster e gerenciar e diagnosticar e solucionar problemas de aplicativos em execução no cluster. No site https://kubernetes.io/, consulte Implantar e Acessar o Painel de Controle do Kubernetes.
-
Crie um pool de nós para o cluster. Consulte Criando um Pool de Nós de Trabalho do OKE.
-
Crie um backup para o cluster de carga de trabalho. Por exemplo, consulte Fazendo backup de um cluster do etcd e Restaurando um cluster do etcd em Clusters do etcd operacionais para o Kubernetes. Use o backup etcd para recuperar clusters do OKE em cenários de desastre, como a perda de todos os nós do plano de controle. Um backup etcd contém todos os estados do OKE e informações críticas. Um backup etcd não faz backup de aplicativos ou outro conteúdo em nós de cluster.
Use o comando oci ce cluster create e os parâmetros necessários para criar um novo cluster.
oci ce cluster create --compartment-id coompartment_OCID --kubernetes-version version-to-install --name cluster_name --vcn-id VCN_OCID [OPTIONS]
Para instalar um complemento de cluster, use o comando
cluster install-addon
depois de criar o cluster. Consulte Instalando o Complemento do Kubernetes Operator WebLogic.Procedimento
-
Obtenha as informações necessárias para executar o comando:
-
O OCID do compartimento no qual você deseja criar o cluster:
oci iam compartment list
-
O nome do cluster. Evite digitar informações confidenciais.
-
A versão do Kubernetes que você deseja usar. Use o seguinte comando para mostrar uma lista de versões disponíveis do Kubernetes:
oci ce cluster-options get --cluster-option-id all
Você pode listar mais versões do Kubernetes usando o comando
compute image list
e procurando o nome para exibição. No exemplo a seguir, a versão do Kubernetes na imagem é 1.29.9:"display-name": "uln-pca-Oracle-Linux8-OKE-1.29.9-20250325.oci"
Outra maneira de especificar uma versão que não esteja listada é usar o OCID de um cluster mais antigo em vez da palavra-chave
all
como argumento da opção--cluster-option-id
para listar a versão do Kubernetes usada para esse cluster especificado:oci ce cluster-options get --cluster-option-id cluster_OCID
Se você estiver usando a Versão 3.0.2-b1081557, o comando
cluster-options get
não estará disponível. Use o comandocompute image list
para obter a versão do Kubernetes do nome para exibição da imagem. -
OCID da rede virtual na nuvem (VCN) na qual você deseja criar o cluster. Especifique a VCN que tem a configuração da VCN "oke_vcn" descrita em Criando uma VCN (Sobreposição de Flannel) ou Criando uma VCN (Rede de Pod Nativa da VCN).
-
OCID da sub-rede LB do serviço OKE. Especifique a sub-rede que tem uma configuração como a sub-rede "service-lb" descrita em Criando uma Sub-rede do Balanceador de Carga do Worker (Sobreposição do Flannel) ou Criando uma Sub-rede do Balanceador de Carga do Worker (Pod Nativo da VCN). Especifique apenas uma sub-rede LB de serviço do OKE.
-
OCID da sub-rede do ponto final da API do Kubernetes. Especifique a sub-rede que tem configuração, como a sub-rede "control-plane-endpoint" descrita em Criando uma Sub-rede do Balanceador de Carga do Plano de Controle do OKE (Sobreposição de Flannel) ou Criando uma Sub-rede do Balanceador de Carga do Plano de Controle (Pod Nativo da VCN). Para um cluster público, siga as instruções para criar a versão pública da sub-rede "service-lb". Para um cluster privado, crie a versão privada da sub-rede "service-lb". Especifique apenas uma sub-rede LB do OKE Service.
-
Bloco CIDR do serviço OKE. (Opcional) O valor padrão é 10.96.0.0/16.
-
Bloco CIDR de Pods. (Opcional) O valor padrão é 10.244.0.0/16.
-
(Opcional) O OCID do Grupo de Segurança de Rede a ser aplicado ao ponto final do cluster. Não especifique mais de um NSG. Se você especificar um NSG, use a seguinte sintaxe:
--endpoint-nsg-ids '["ocid1.networksecuritygroup.unique_ID"]'
-
(Opcional) Sua chave SSH pública no formato RSA. Não é possível adicionar ou atualizar uma chave SSH após a criação do cluster.
-
O tipo de rede. (Opcional) Especifique
OCI_VCN_IP_NATIVE
ouFLANNEL_OVERLAY
para o valor do parâmetrocniType
no argumento da opção--cluster-pod-network-options
. Consulte as descrições da Sobreposição de Flannel e da Rede de Pods Nativos da VCN na guia Console. Se você não especificar a opção--cluster-pod-network-options
,FLANNEL_OVERLAY
será usado.--cluster-pod-network-options '[{"cniType": "OCI_VCN_IP_NATIVE"}]'
Observação
Se você especificar
OCI_VCN_IP_NATIVE
, a VCN especificada deverá ter uma sub-rede chamadapod
.
-
-
(Opcional) Adicione tags de formato livre para o recurso de cluster usando as opções
--defined-tags
ou--freeform-tags
.Observação
Não especifique valores para a tag definida OraclePCA-OKE.cluster_id ou para a tag de formato livre ClusterResourceIdentifier. Esses valores de tag são gerados pelo sistema e aplicados apenas a nós (instâncias), não ao recurso de cluster.
Defina um argumento para a opção
--defined-tags
para fornecer as informações a seguir para nós de plano de controle. Especifique OraclePCA como namespace de tag.Importante
Se você estiver usando o Private Cloud Appliance Versão 3.0.2-b1081557, essas tags definidas não serão reconhecidas. Use tags de formato livre para especificar esses valores. Na Versão 3.0.2-b1185392 e posterior do Private Cloud Appliance, as tags de formato livre estão obsoletas; use as tags definidas descritas aqui para a chave SSH, o número de nós de plano de controle, a forma do nó e a configuração do nó na Versão 3.0.2-b1185392 e posterior do Private Cloud Appliance.
Observação
Nenhum desses valores - chave SSH, número de nós, forma de nó ou configuração de forma de nó - pode ser definido ou alterado após a criação do cluster. Se você definir essas tags ao atualizar o cluster, os novos valores serão ignorados.
-
Sua chave SSH pública
Especifique
sshkey
para a chave de tag e cole sua chave SSH pública como o valor.Importante
Não é possível adicionar uma chave SSH após a criação do cluster.
-
Número de nós
Por padrão, o número de nós no plano de controle é 3. Você pode especificar 1, 3 ou 5 nós. Para especificar o número de nós de plano de controle, especifique
cpNodeCount
para a chave de tag e digite 1, 3 ou 5 para o valor. -
Forma do nó
Para sistemas X10 do Private Cloud Appliance, a forma dos nós de plano de controle é VM.PCAStandard.E5. Flexível e você não pode mudar. Para todos os outros sistemas do Private Cloud Appliance, a forma padrão é VM.PCAStandard1.1 e você pode especificar outra forma. Para obter descrições de formas disponíveis, consulte Formas de Computação.
Para usar outra forma, especifique cpNodeShape para a chave de tag (OraclePCA.cpNodeShape) e informe o nome da forma como o valor. Use o seguinte comando para listar as formas disponíveis e suas características:
oci compute shape list --compartment-id compartment_OCID
Configuração da forma do nó
Se você especificar uma forma que não seja flexível, não especifique uma configuração de forma. O número de OCPUs e a quantidade de memória são definidos para os valores mostrados para essa forma em Formas de Computação.
Se você especificar uma forma flexível, poderá alterar a configuração de forma padrão. Para fornecer informações de configuração de forma, especifiquecp_node_shape_config
para a chave de tag (OraclePCA.cpNodeShapeConfig). Você deve especificar o número de OCPUs (ocpus
) desejado. Opcionalmente, você pode especificar a quantidade total de memória desejada (memoryInGBs
). O valor padrão para gigabytes de memória é 16 vezes o número especificado para OCPUs.Observação
Se o cluster tiver de 1 a 10 nós de trabalho, especifique pelo menos 16 GB de memória. Se o cluster tiver de 11 a 128 nós de trabalho, especifique pelo menos 2 OCPUs e 32 GB de memória. Você não pode alterar o número de OCPUs ou a quantidade de memória ao atualizar o cluster.
Especifique tags definidas, em linha ou em um arquivo no formato JSON, como o seguinte arquivo de exemplo:
{ "OraclePCA": { "sshkey": "ssh-rsa <remainder_of_key_text>", "cpNodeCount": 1, "cpNodeShape": "VM.PCAStandard1.Flex", "cpNodeShapeConfig": { "ocpus": 2, "memoryInGBs": 48 } } }
Use a sintaxe a seguir para especificar um arquivo de tags. Especifique o caminho completo para o arquivo
.json
, a menos que o arquivo esteja no mesmo diretório em que você está executando o comando.--defined-tags file://cluster_tags.json
-
-
(Opcional) Você pode usar as opções
--service-lb-defined-tags
ou--service-lb-freeform-tags
para especificar tags a serem aplicadas a todos os balanceadores de carga criados pelos serviços do Kubernetes. Certifique-se de que o grupo dinâmico aplicável inclua a políticause tag-namespaces
. Consulte Exposição de Aplicativos Contêinerizados. -
Execute o comando create cluster.
Se o
--endpoint-subnet-id
especificado for uma sub-rede pública, um ponto final público será criado e a opção--endpoint-public-ip-enabled
deverá ser definida comotrue
.Se a
--endpoint-subnet-id
especificada for uma sub-rede privada, um ponto final privado será criado e a opção--endpoint-public-ip-enabled
deverá ser definida comofalse
.Exemplo:
$ oci ce cluster create \ --compartment-id ocid1.compartment.unique_ID --kubernetes-version version \ --name "Native Cluster" --vcn-id ocid1.vcn.unique_ID \ --cluster-pod-network-options '{"cniType":"OCI_VCN_IP_NATIVE"}' \ --endpoint-subnet-id control-plane-endpoint_subnet_OCID \ --endpoint-public-ip-enabled false \ --service-lb-subnet-ids '["service-lb_subnet_OCID"]' \ --defined-tags '{"OraclePCA":{"sshkey":"ssh-rsa remainder_of_key_text"}}'
A saída desse comando
cluster create
é a mesma do comandocluster get
.Use o comando
work-request get
para verificar o status da operação de criação. O OCID da solicitação de serviço está emcreated-by-work-request-id
na seçãometadata
da saída docluster create
.$ oci ce work-request get --work-request-id workrequest_OCID
Para identificar os nós do plano de controle deste cluster, liste as instâncias no compartimento no qual você criou o cluster. Os nomes dos nós do plano de controle estão no seguinte formato:
oke-ID1-control-plane-ID2
-
ID1 - Os primeiros 32 caracteres após a pca_name no OCID do cluster.
-
ID2 - Um identificador exclusivo adicionado quando o cluster tem mais de um nó do plano de controle.
Procure as instâncias na lista cujos nomes contêm a string ID1 deste OCID do cluster.
-
Para obter uma lista completa de comandos, flags e opções da CLI, consulte a Referência de Linha de Comandos.
O Que Vem a Seguir:
-
Criar um arquivo de configuração do Kubernetes para o cluster. Consulte Criando um Arquivo de Configuração do Kubernetes.
-
Implantar um Painel de Controle do Kubernetes para gerenciar o cluster e gerenciar e diagnosticar e solucionar problemas de aplicativos em execução no cluster. No site https://kubernetes.io/, consulte Implantar e Acessar o Painel de Controle do Kubernetes.
-
Crie um pool de nós para o cluster. Consulte Criando um Pool de Nós de Trabalho do OKE.
-
Crie um backup para o cluster de carga de trabalho. Por exemplo, consulte Fazendo backup de um cluster do etcd e Restaurando um cluster do etcd em Clusters do etcd operacionais para o Kubernetes. Use o backup etcd para recuperar clusters do OKE em cenários de desastre, como a perda de todos os nós do plano de controle. Um backup etcd contém todos os estados do OKE e informações críticas. Um backup etcd não faz backup de aplicativos ou outro conteúdo em nós de cluster.
-
Use a operação CreateCluster para criar um novo cluster.
Para obter informações sobre como usar a API e assinar solicitações, consulte APIs REST e Credenciais de Segurança. Para obter informações sobre SDKs, consulte Kits de Desenvolvimento de Software e Interface de Linha de Comando.
O Que Vem a Seguir:
-
Criar um arquivo de configuração do Kubernetes para o cluster. Consulte Criando um Arquivo de Configuração do Kubernetes.
-
Implantar um Painel de Controle do Kubernetes para gerenciar o cluster e gerenciar e diagnosticar e solucionar problemas de aplicativos em execução no cluster. No site https://kubernetes.io/, consulte Implantar e Acessar o Painel de Controle do Kubernetes.
-
Crie um pool de nós para o cluster. Consulte Criando um Pool de Nós de Trabalho do OKE.
-
Crie um backup para o cluster de carga de trabalho. Por exemplo, consulte Fazendo backup de um cluster do etcd e Restaurando um cluster do etcd em Clusters do etcd operacionais para o Kubernetes. Use o backup etcd para recuperar clusters do OKE em cenários de desastre, como a perda de todos os nós do plano de controle. Um backup etcd contém todos os estados do OKE e informações críticas. Um backup etcd não faz backup de aplicativos ou outro conteúdo em nós de cluster.
-