Load Balancer Policys
Wenden Sie Load Balancer Policys an, um die Trafficverteilung auf Ihre Backend-Server zu steuern.
Nach dem Erstellen eines Load Balancers können Sie Policys anwenden, um die Trafficverteilung auf die Backend-Server zu steuern. Der Load-Balancer-Service unterstützt drei primäre Policy-Typen:
Wenn die Verarbeitungslast oder -kapazität zwischen Backend-Servern variiert, können Sie jeden dieser Policy-Typen mit der Backend-Server-Gewichtung verfeinern. Die Gewichtung wirkt sich auf den Anteil der Anforderungen aus, die an die einzelnen Server weitergeleitet werden. Beispiel: Ein Server mit der Gewichtung "3" empfängt dreimal so viele Verbindungen wie ein Server mit der Gewichtung "1". Sie weisen Gewichtungen basierend auf den von Ihnen gewählten Kriterien zu, wie die Kapazität der einzelnen Server zum Handling von Traffic. Gewichtungswerte müssen zwischen 1 und 100 liegen.
Load Balancer Policy-Entscheidungen gelten unterschiedlich für TCP-Load Balancer, cookiebasierte sessionpersistente HTTP-Anforderungen (Sticky-Anforderungen) und Nicht-Sticky-HTTP-Anforderungen.
- Ein TCP-Load Balancer berücksichtigt Policy- und Gewichtungskriterien, wenn er eine ursprüngliche eingehende Anforderung an einen Backend-Server weiterleitet. Alle nachfolgenden Pakete auf dieser Verbindung laufen zum selben Endpunkt.
- Ein HTTP-Load Balancer, der zur Verarbeitung cookiebasierter Sessionpersistenz konfiguriert ist, leitet Anforderungen an den Backend-Server weiter, der in den Sessioninformationen des Cookies angegeben ist.
- Bei Nicht-Sticky-HTTPS-Anforderungen wendet der Load Balancer Policy- und Gewichtungskriterien auf jede eingehende Anforderung an und legt einen entsprechenden Backend-Server fest. Mehrere Anforderungen vom selben Client können dabei an verschiedene Server weitergeleitet werden.
Um einen Load-Balancer mit einer reservierten IP zu erstellen, fügen Sie diese Policy hinzu:
Allow group group_name to manage floating-ips in tenancy
Allgemeine Informationen zu Policys finden Sie unter Erste Schritte mit Policys.
Round-Robin
Round-Robin ist die standardmäßige Load Balancer Policy. Diese Policy verteilt eingehenden Traffic nacheinander auf die einzelnen Server in einer Backend-Setliste. Nachdem jeder Server eine Verbindung erhalten hat, wiederholt der Load Balancer die Liste in derselben Reihenfolge.
Round-Robin ist ein einfacher Load-Balancing-Algorithmus. Er funktioniert am besten, wenn alle Backend-Server ähnliche Kapazität aufweisen und die von jeder Anforderung erforderliche Verarbeitungslast nicht unterschiedlich ist.
Least Connections
Die Policy "Geringste Verbindungen" leitet eingehenden Nicht-Sticky-Anforderungstraffic an den Backend-Server mit den wenigsten aktiven Verbindungen weiter. Mit dieser Policy können Sie aktive Verbindungen gleichmäßig auf Backend-Server verteilen. Wie bei der Policy "Round-Robin" können Sie jedem Backend-Server eine Gewichtung zuweisen und die Trafficverteilung weiter steuern.
In TCP-Anwendungsfällen kann eine Verbindung aktiv sein, jedoch keinen aktuellen Traffic aufweisen. Solche Verbindungen dienen nicht als gute Belastungsmetrik.
IP-Hash
Die Policy "IP-Hash" verwendet die Quell-IP-Adresse einer eingehenden Anforderung als Hashing-Schlüssel, um Nicht-Sticky-Traffic an denselben Backend-Server weiterzuleiten. Der Load Balancer leitet Anforderungen von demselben Client zu demselben Backend-Server weiter, solange dieser Server verfügbar ist. Diese Policy berücksichtigt Servergewichtungseinstellungen beim Herstellen der anfänglichen Verbindung.
Mit IP-Hash wird sichergestellt, dass Anforderungen von einem bestimmten Client immer an denselben Backend-Server weitergeleitet werden, solange dieser verfügbar ist.
Ein Backend-Server, dem als Backup markiert ist, kann keinem Backend-Set hinzugefügt werden, das die IP-Hash-Policy verwendet.
Mehrere Clients, die über einen Proxyserver oder NAT-Router eine Verbindung zu dem Load Balancer herstellen, haben dem Anschein nach dieselbe IP-Adresse. Wenn Sie die Policy "IP-Hash" auf das Backend-Set anwenden, leitet der Load Balancer den Traffic basierend auf der eingehenden IP-Adresse weiter und sendet diese Proxyclientanforderungen an denselben Backend-Server. Wenn der Proxyclientpool groß ist, könnten die Anforderungen eine Überflutung des Backend-Servers verursachen.