Políticas do Serviço Load Balancer
Descreve como você pode aplicar políticas de balanceador de carga para controlar a distribuição de tráfego para os servidores de backend.
Após criar um balanceador de carga, você pode aplicar políticas aos seus servidores de backend para controlar a distribuição do tráfego. O serviço Load Balancer suporta três tipos de política principais:
Quando a capacidade ou a carga de processamento varia entre os servidores de backend, você pode refinar cada um desses tipos de política com a ponderação do servidor de backend. A ponderação afeta a proporção de solicitações direcionadas a cada servidor. Por exemplo, um servidor ponderado '3' recebe três vezes o número de conexões do servidor ponderado '1.' Você designa pesos com base em critérios da sua escolha, como a capacidade de tratamento de tráfego de cada servidor. Os valores de peso devem ser de 1 a 100.
As decisões da política de balanceador de carga se aplicam de forma distinta aos balanceadores de carga TCP, às solicitações HTTP persistentes da sessão baseada em cookie (solicitações sticky) e às solicitações HTTP não persistentes.
-
Um balanceador de carga TCP considera critérios de política e de peso para direcionar uma solicitação inicial recebida a um servidor de backend. Todos os pacotes subsequentes nesta conexão se destinam ao mesmo ponto final.
-
Um balanceador de carga HTTP configurado para tratar a persistência de sessão baseada em cookie encaminha solicitações ao servidor de backend especificado pelas informações de sessão do cookie.
-
Para solicitações HTTP não persistentes, o balanceador de carga aplica critérios de política e de peso a cada solicitação recebida e determina um servidor de backend apropriado. Várias solicitações do mesmo cliente podem ser direcionadas a diversos servidores.
Se você quiser criar um balanceador de carga com um IP de reserva, adicione esta política:
Allow group group_name to manage floating-ips in tenancy
Consulte Conceitos Básicos de Políticas para obter informações sobre políticas.
Revezamento
Revezamento é a política do balanceador de carga padrão. Esta política distribui o tráfego de entrada sequencialmente para cada servidor em uma lista de conjuntos de backend. Após cada servidor ter recebido uma conexão, o balanceador de carga repete a lista na mesma ordem.
Revezamento é um algoritmo de balanceamento de carga simples. Essa solução funciona melhor quando todos os servidores de backend têm capacidade semelhante, e a carga de processamento necessária para cada solicitação não varia significativamente.
Menos Conexões
A política Menos Conexões encaminha o tráfego de solicitação de entrada não permanente para o servidor de backend com menos conexões ativas. Essa política ajuda a manter uma distribuição igual de conexões ativas com servidores de backend. Assim como ocorre com a política de revezamento, você pode designar um peso a cada servidor de backend e controlar ainda mais a distribuição do tráfego.
Em casos de uso TCP, uma conexão pode estar ativa, mas não ter tráfego atual. Essas conexões não representam uma boa métrica de carga.
Hash de IP
A política de Hash de IP usa o endereço IP de origem de uma solicitação de entrada como chave de hashing que roteia o tráfego não persistente para o mesmo servidor de backend. O balanceador de carga roteia as solicitações do mesmo cliente para o mesmo servidor de backend, contanto que esse servidor esteja disponível. Essa política respeita as definições de peso do servidor ao estabelecer a conexão inicial.
O Hash de IP garante que as solicitações de um cliente específico sejam sempre direcionadas para o mesmo servidor de backend, desde que ele esteja disponível.
Você não pode adicionar um servidor de backend marcado como Backup a um conjunto de backend que usa a política de Hash de IP.
Vários clientes que se conectam ao balanceador de carga por meio de um proxy ou de um roteador NAT parecem ter o mesmo endereço IP. Se você aplicar a política de Hash de IP ao seu conjunto de backend, o balanceador de carga roteará o tráfego com base no endereço IP de entrada e enviará essas solicitações do cliente com proxy para o mesmo servidor de backend. Se o pool do cliente com proxy for grande, as solicitações poderão abarrotar um servidor de backend.