Kubernetes-Metrikserver auf einem Cluster bereitstellen
Erfahren Sie, wie Sie den Kubernetes-Metrikserver als Standalone-Programm oder als Cluster-Add-on in einem Cluster bereitstellen, das Sie mit der Kubernetes Engine (OKE) erstellt haben.
Sie können den Kubernetes-Metrikserver auf Clustern bereitstellen, die Sie mit der Kubernetes-Engine erstellen, um Autoscaling zu aktivieren.
Mit dem Kubernetes-Metrikserver können Sie Daten zur Ressourcennutzung für das gesamte Cluster aggregieren. Der Kubernetes-Metrikserver sammelt Ressourcenmetriken von dem Kubelet, das auf jedem Worker-Knoten ausgeführt wird, und stellt sie über die Kubernetes-Metrik-API im Kubernetes-API-Server bereit. Andere Kubernetes-Add-ons erfordern den Kubernetes-Metrikserver, darunter:
- Horizontal Pod Autoscaler (siehe Kubernetes Horizontal Pod Autoscaler verwenden)
- Vertical Pod Autoscaler (siehe Kubernetes Vertical Pod Autoscaler verwenden)
Sie können den Kubernetes-Metrikserver auf zwei Arten in einem Kubernetes-Cluster bereitstellen:
- als Standalone-Programm auf Clustern mit verwalteten Knotenpools oder virtuellen Knotenpools (siehe Mit dem Kubernetes-Metrikserver als Standalone-Programm arbeiten)
- als Cluster-Add-on auf Clustern mit verwalteten Knotenpools (siehe Mit dem Kubernetes-Metrikserver als Cluster-Add-on arbeiten)
Hinweis: Der Kubernetes-Metrikserver ist nur für das Autoscaling bestimmt. Es ist beispielsweise nicht empfehlenswert, den Kubernetes-Metrikserver zum Weiterleiten von Metriken an Monitoringlösungen oder als Quelle für Monitoringlösungsmetriken zu verwenden. Weitere Informationen finden Sie in der Dokumentation zum Kubernetes-Metrikserver auf GitHub.