Surveillance de la capacité du système

Il est important d'effectuer le suivi des mesures clés qui déterminent la capacité de Private Cloud Appliance à héberger vos instances de calcul et le stockage qu'elles utilisent. Les administrateurs ont un accès direct à la consommation actuelle d'UC, de mémoire et d'espace de stockage.

Les données détaillées sur la charge des noeuds de calcul et l'utilisation du stockage se trouvent dans les tableaux de bord Grafana. Cette rubrique explique comment accéder aux mesures les plus critiques directement à partir de Service Enclave.

Affichage de l'utilisation d'UC et de mémoire par domaine d'erreur

Ces procédures affichent le nombre de noeuds de calcul, la quantité totale de mémoire et de mémoire libre, ainsi que le nombre total et gratuit d'UC virtuelles pour chaque domaine d'erreur.

La rangée UNASSIGNED fait référence aux noeuds de calcul qui ne sont actuellement pas affectés à un domaine d'erreur. Comme ces noeuds de calcul n'appartiennent pas à un domaine d'erreur, leur utilisation de mémoire et d'UC dans un domaine d'erreur est égale à zéro.

Pour afficher ces informations et plus encore pour un noeud de calcul individuel, sélectionnez PCA Config > Rack Units dans le menu de navigation, ou sélectionnez la vignette Rack Units dans le tableau de bord, puis cliquez sur le nom d'un noeud de calcul dans la liste.

Utiliser l'interface utilisateur Web du service
  1. Dans le menu de navigation, sélectionnez PCA Config > Fault Domains.

  2. Cliquez sur le nom d'un domaine d'erreur pour voir les informations relatives à ce domaine d'erreur uniquement.

Utilisation de l'interface de ligne de commande du service

Entrez la commande getFaultDomainInfo.

PCA-ADMIN> getFaultDomainInfo
Data:
  id           totalCNs   totalMemory   freeMemory   totalvCPUs   freevCPUs
  --           --------   -----------   ----------   ----------   ---------
  UNASSIGNED   1          0.0           0.0          0            0
  FD1          2          1072.0        976.0        176          164
  FD2          1          984.0         984.0        120          120
  FD3          1          984.0         984.0        120          120

La colonne Notes est omise de l'exemple précédent.

Affichage de l'utilisation de l'espace disque sur ZFS Storage Appliance

Service Enclave exécute un outil de surveillance du stockage appelé gestionnaire de groupe ZFS, qui interroge ZFS Storage Appliance toutes les 60 secondes. À l'aide de l'interface de ligne de commande du service, vous pouvez afficher des informations courantes sur l'utilisation de l'espace disque disponible dans chaque pool ZFS. Vous pouvez également définir le seuil d'utilisation qui déclenche une erreur lorsque le seuil est dépassé.

Vérification du statut de stockage des groupes ZFS

Répertorier les groupes ZFS.

PCA-ADMIN> list ZfsPool
Data:
  id                                     name
  --                                     ----
  e898b147-7cf0-4bd0-8b54-e32ec83d04cb   PCA_POOL
  c2f67943-df81-47a5-9713-06768318b623   PCA_POOL_HIGH

Dans une configuration de stockage standard, vous n'avez qu'un seul groupe. Si votre système inclut des plateaux de disques haute performance, vous pouvez afficher les informations d'utilisation de chaque pool séparément.

PCA-ADMIN> show ZfsPool id=e898b147-7cf0-4bd0-8b54-e32ec83d04cb
Data:
  Id = e898b147-7cf0-4bd0-8b54-e32ec83d04cb
  Type = ZfsPool
  Pool Status = Online
  Free Pool = 44879343128576
  Total Pool = 70506183131136
  Pool Usage Percent = 0.3634693989163486
  Name = PCA_POOL
  Work State = Normal
Configurer le seuil d'erreur du gestionnaire de groupes ZFS

Par défaut, le seuil d'erreur est réglé à 80 % plein : usage percentage 0,8.

PCA-ADMIN> show ZfsPoolManager
Data:
  Id = a6ca861b-f83a-4032-91c5-bc506394d0de
  Type = ZfsPoolManager
  LastRunTime = 2022-10-09 12:17:52,964 UTC
  Poll Interval (sec) = 60
  The minimum Zfs pool usage percentage to trigger a major fault = 0.8
  Manager's run state = Running

L'exemple suivant règle le seuil d'erreur à 75 % plein : usageMajorFaultPercent=0.75.

PCA-ADMIN> edit ZfsPoolManager usageMajorFaultPercent=0.75
JobId: 67cfe180-f2a2-4d59-a676-01b3d73cffae